Transparantie onder de AI Act: waarom “Ik ben een chatbot” zeggen niet volstaat

Veel ondernemingen leven in de veronderstelling dat de transparantieverplichtingen uit de Europese AI Verordening (AI Act) zich beperken tot de eenvoudige regel dat een chatbot zich als zodanig moet identificeren. Dit is een gevaarlijke misvatting. De transparantieregels reiken veel verder en zijn van toepassing op elk AI-systeem dat direct interageert met mensen, evenals op systemen die worden ingezet op de werkvloer of die ingrijpende beslissingen nemen. Een loutere vermelding in de algemene voorwaarden is zelden voldoende.

Directe interactie: meer dan alleen chatbots

Artikel 50(1) van de AI Act legt een duidelijke verplichting op: aanbieders moeten ervoor zorgen dat AI-systemen die bedoeld zijn voor directe interactie met natuurlijke personen, zo zijn ontworpen dat de gebruiker weet dat hij met een machine communiceert.

De focus ligt vaak op chatbots voor klantenservice, maar de wetgeving dekt een veel breder spectrum aan toepassingen. Denk bijvoorbeeld aan:

  • Intelligente toegangsterminals of zelfbedieningskiosken: Fysieke punten waar klanten of bezoekers inchecken.
  • AI-gebaseerde intake-tools: Systemen die via adaptieve vragenlijsten informatie verzamelen (bijv. “Wat is uw geboortedatum?”).
  • Inhoudsmoderatie: Interfaces die uploads scannen en direct feedback geven aan de gebruiker.

De wet voorziet in een uitzondering wanneer het voor een “normaal geïnformeerde en redelijk omzichtige en oplettende natuurlijke persoon” duidelijk is dat hij met AI interageert. Wees echter voorzichtig met deze uitzondering. Hoewel iedereen ChatGPT herkent als AI, geldt dit niet noodzakelijk voor uw specifieke bedrijfsapplicatie. Gebruikers kunnen ten onrechte denken dat ze te maken hebben met een klassiek, regel-gebaseerd softwaresysteem of zelfs een menselijke operator.

De notificatie moet tijdig, duidelijk en contextueel zijn. Het verstoppen van deze informatie in een privacyverklaring of algemene voorwaarden volstaat niet.

AI op de werkvloer: een specifieke informatieplicht

Voor Belgische werkgevers brengt de AI Act specifieke verplichtingen met zich mee die de sociale dialoog raken. Wanneer u als werkgever (“gebruiksverantwoordelijke”) een AI-systeem met een hoog risico op de werkplek inzet, geldt er een strikte informatieplicht (art. 26(7) AI Act).

Nog vóór het systeem in gebruik wordt genomen, moeten zowel de werknemers als hun vertegenwoordigers (de ondernemingsraad of vakbondsafvaardiging) worden geïnformeerd dat zij aan het gebruik van een dergelijk systeem zullen worden onderworpen. Dit geldt zelfs als de werknemers het systeem niet zelf bedienen, maar er wel de gevolgen van ondervinden (bijvoorbeeld AI-tools voor prestatieanalyse of rekrutering). Deze verplichting komt bovenop de bestaande regels rond informatie en raadpleging in het Belgisch arbeidsrecht.

Besluitvorming en het recht op uitleg

De zwaarste transparantieverplichtingen gelden voor AI-systemen met een hoog risico die beslissingen nemen (of helpen nemen) die rechtsgevolgen hebben voor personen. Denk hierbij aan kredietwaardigheidsbeoordelingen, evaluaties in het onderwijs of beslissingen over sociale uitkeringen.

Hier gelden twee cruciale regels:

  1. Notificatieplicht: De gebruiksverantwoordelijke moet de betrokken natuurlijke persoon informeren dat er een AI-systeem op hem wordt toegepast (art. 26(11) AI Act)
  2. Recht op uitleg: Elke persoon die onderworpen is aan een besluit gebaseerd op een AI-systeem met een hoog risico dat nadelige gevolgen heeft voor zijn gezondheid, veiligheid of grondrechten, heeft het recht om duidelijke en zinvolle uitleg te vragen (art. 86 AI Act).

Dit betekent dat u als bedrijf niet alleen moet melden dat er AI wordt gebruikt, maar ook in staat moet zijn om uit te leggen hoe het systeem tot een bepaald besluit is gekomen. “De computer zegt nee” is juridisch niet langer houdbaar.

Emotieherkenning en deepfakes

De wetgever besteedt specifieke aandacht aan technologieën die als intrusief of misleidend kunnen worden ervaren:

  • Emotieherkenning & biometrische categorisering: Wie een systeem inzet dat emoties afleidt of personen categoriseert op basis van biometrische gegevens (bijv. leeftijd, geslacht), moet de betrokken personen hierover expliciet informeren (art. 50(3) AI Act). Let wel: het gebruik hiervan op de werkplek of in het onderwijs is in veel gevallen zelfs verboden (art. 5(1)f AI Act).
  • Deepfakes: Gebruikers van AI-systemen die beeld-, audio- of videocontent genereren die lijkt op bestaande personen of gebeurtenissen (deepfakes), moeten duidelijk bekendmaken dat de content kunstmatig is gegenereerd of gemanipuleerd (art. 50(4) AI Act).

Veelgestelde Vragen (FAQ)

Geldt de transparantieplicht voor elk stukje software met een algoritme?
Nee. De verplichting uit artikel 50 geldt specifiek voor AI-systemen die bedoeld zijn voor directe interactie met mensen, of systemen die synthetische content (zoals tekst, beeld of geluid) genereren. Voor AI-systemen met een hoog risico gelden zwaardere verplichtingen, ongeacht of er directe interactie is.

Moet ik mijn werknemers informeren over elke AI-tool die we gebruiken?
Volgens artikel 26(7) van de AI Act geldt de expliciete verplichting voor AI-systemen met een hoog risico (zoals gedefinieerd in Bijlage III, bijvoorbeeld tools voor rekrutering of evaluatie). Echter, vanuit goed werkgeverschap en GDPR-perspectief is transparantie over monitoring op de werkvloer altijd aan te raden.

Conclusie

Transparantie onder de AI Act is geen kwestie van het eenmalig afvinken van een checkbox. Het vereist een actieve, contextuele benadering waarbij de gebruiker – of dat nu een klant, werknemer of burger is – op het juiste moment begrijpt dat technologie een rol speelt in de interactie of besluitvorming.


Joris Deene

Advocaat-partner bij Everest Advocaten

Contact

Vragen? Advies nodig?
Neem contact op met Advocaat Joris Deene.

Telefoon: 09/280.20.68
E-mail: joris.deene@everest-law.be

Topics