Terugblik op het Nationaal AI & Data Congres: de AI Act in actie, AI-training op persoonsgegevens, contractvorming in het AI-tijdperk en meer!
Tijdens het Nationaal AI & Data Congres op donderdag 5 februari 2026 hebben juridische experts de laatste ontwikkelingen op het snijvlak van AI en recht belicht. Arnoud Engelfriet (ICTRecht) besprak compliance onder de AI Act, terwijl Laura Poolman (Kennedy van der Laan) zich boog over de juridische kwalificatie van AI-training op persoonsgegevens, mede gezien het Digital Omnibus-pakket van de Europese Commissie. Louis Jonker en Merel Hazes (beiden Van Doorne) gingen in op de uitdagingen van contractvorming bij de inkoop van AI. Het congres is in goede banen geleid door dagvoorzitters Astrid Sixma (Kennedy van der Laan) en Menno Weij (The Data Lawyers). De middag werd geopend met een presentatie van Jolanda ter Maten (ter Maten) over de kansen en risico's van AI. We sloten af met een paneldiscussie tussen juridische sleutelspelers Douwe Groenevelt (Viridea), Wouter Seinen (Pinsent Masons) en Jeroen Zweers (Dutch Legal Tech).
Voor de geïnteresseerde lezer volgt hieronder op hoofdlijnen een weergave van de inhoudelijke bespreking die plaatsvond tijdens het congres.
Wat regelt de AI Act?
In de kern is de EU AI Act (2024/1689) een conformiteitsbeoordeling, aldus Arnoud Engelfriet. Net zoals andere producten op de markt gereguleerd worden via wetgeving, geldt dat via de AI Act ook voor AI-gerelateerde producten. Afhankelijk van de mate van risico van de gebruikte AI, moeten de ontwikkelaar en gebruiksverantwoordelijke aan bepaalde conformiteitsvereisten voldoen (art. 6 e.v.). Sommige praktijken zijn zelfs geheel verboden (art. 5). In bepaalde gevallen gelden er bovendien aanvullende transparantievereisten (art. 50), waaronder voor eindgebruikers. Het feit dat de AI Act een conformiteitsbeoordeling is, brengt ook mee dat het niet van toepassing is bij de regulering van bijvoorbeeld deepfakes. Dit bleek een bijzonder actueel thema tijdens het recente Grok-schandaal, waarbij op grote schaal intieme beelden van bestaande personen werden gegenereerd door eindgebruikers. De aangewezen wetgeving om dit te bestrijden is onder andere de DSA.
Menselijk toezicht
Een van de kernvereisten van de AI Act is het menselijk toezicht op het gebruik van AI-systemen (art. 14). Dit kan onderverdeeld worden in vier aparte categorieën, waaronder human-in-the-loop en human-on-the-loop. Wat Arnoud betreft, werkt die eerste categorie geheel averechts: op het moment dat AI-modellen een nauwkeurigheid hebben van 80% of meer, krijgt de menselijk toezichthouder een automatiseringsbias. Oftewel, de toezichthouder gaat ervan uit dat de beslissing van de AI klopt. Hierdoor vangt hij of zij eventuele onjuiste output niet goed meer op. Dit gaat zelfs zo ver dat de accuraatheid van het AI-model geheel achteruit kan gaan door inmenging van een mens. Als voorbeeld geeft Arnoud de menselijke beoordeling van door slimme verkeerscamera’s gemaakte foto’s. Dit is in de praktijk regelmatig mis gegaan, zelfs met toepassing van het vierogenprincipe.
Arnoud benadrukt dat de mens niet ingezet moet worden om afwijkende gevallen te herkennen. In plaats daarvan moet hij enkel worden ingezet om afwijkende gevallen te beoordelen, juist omdat daar de kracht van de mens zit. De gevallen die aparte beoordeling behoeven kunnen van tevoren worden geselecteerd door een apart algoritme. Op die manier vullen mens en machine elkaar optimaal aan. In bepaalde gevallen kan eventueel om ethische bezwaren van dit uitgangspunt worden afgeweken.
Bias
Een andere kernvereiste is het gebruik van kwalitatieve data bij de training van AI-modellen (art. 10). Het gebrek hieraan zorgt er bijvoorbeeld voor dat ‘slimme’ verkeerscamera’s het krabben aan een oor kunnen verwarren met het vasthouden van een smartphone. Of dat digitale apps alleen filters kunnen toepassen op mensen met een lichte huidskleur. Hoewel vooringenomenheid ook bij mensen voorkomt, benadrukt Arnoud hoe bias bij AI-modellen van een geheel andere orde is omdat dergelijke modellen ongekende hoeveelheden beslissingen in korte tijd en op grote schaal kunnen maken. Het is dan ook cruciaal dat de datasets van AI-modellen voldoende representatief zijn voor de maatschappij als geheel. Om dit te bereiken moet zo breed mogelijk worden getest en met kwalitatieve data. Eventuele inconsistenties moeten in de praktijk worden gecorrigeerd via het menselijk toezicht.
Explainability
Een laatste belangrijke kernvereiste die Arnoud bespreekt is het idee van uitlegbaarheid. AI-systemen moeten gemaakte beslissingen helder kunnen onderbouwen. Factoren en datapunten an sich volstaan in de kern niet als onderbouwing. Denk hierbij aan de uitleg dat een persoon bij de Albert Heijn wordt gefouilleerd omdat hij of zij een bepaald soort rugzak draagt. In plaats daarvan moet er een concrete aanleiding zijn die een beslissing rechtvaardigt, of tenminste verklaard.
De rest van het artikel is vrij toegankelijk beschikbaar op www.AI-Forum.nl.