Veel aanbieders van AI-systemen verkeren in de veronderstelling dat elke toepassing die genoemd wordt in Bijlage III van de EU AI Act automatisch als ‘hoog risico’ wordt geclassificeerd. Dit is een misvatting die kan leiden tot onnodige compliance-kosten. Artikel 6(3) biedt een belangrijke, maar complexe uitzonderingsprocedure voor systemen die geen materieel risico vormen voor de gezondheid, veiligheid of grondrechten. Hieronder analyseren we de strikte voorwaarden van deze ontsnappingsroute.
De hoofdregel: het vermoeden van hoog risico
De kern van de EU AI Act (Verordening 2024/1689) is een risicogebaseerde benadering. AI-systemen die vallen onder de specifieke domeinen in Bijlage III – zoals onderwijs, werkgelegenheid, essentiële diensten of rechtshandhaving – worden in beginsel beschouwd als hoog-risico AI-systemen.
Voor deze systemen gelden zware verplichtingen: een conformiteitsbeoordeling, risicomanagementsystemen, datagovernance en registratie in de EU-databank. Maar wat als uw systeem technisch gezien binnen een domein van Bijlage III valt, maar in de praktijk nauwelijks impact heeft op de besluitvorming?
De nuancering van artikel 6(3)
Artikel 6(3) van de AI Act introduceert een filtermechanisme. Een systeem dat in Bijlage III staat, wordt niet als hoog risico beschouwd indien het:
“geen significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt, onder meer doordat het de uitkomst van de besluitvorming niet wezenlijk beïnvloedt.”
Dit klinkt als een open norm, maar de wetgever heeft dit in de tweede alinea van Artikel 6(3) onmiddellijk ingekaderd. De uitzondering is alleen van toepassing als aan één van de volgende vier cumulatieve voorwaarden is voldaan:
- Beperkte procedurele taak: Het systeem voert een smalle, procedurele taak uit (bv. het sorteren van documenten op bestandsformaat).
- Verbetering van menselijke activiteit: Het systeem verbetert slechts het resultaat van een eerder voltooide menselijke activiteit (bv. het herschrijven van een tekst op toon of stijl).
- Detectie van patronen (zonder besluitvorming): Het systeem detecteert besluitvormingspatronen of afwijkingen, maar vervangt of beïnvloedt de menselijke beoordeling niet zonder toetsing (bv. een tool die docenten wijst op afwijkende cijfers ten opzichte van het gemiddelde).
- Voorbereidende taak: Het systeem voert slechts een voorbereidende taak uit voor een beoordeling (bv. slim bestandsbeheer of vertaling).
Discussiepunt: limitatief of illustratief?
Onder juristen woedt een debat over de aard van deze lijst. Is deze lijst uitputtend (limitatief) of slechts illustratief?
- De strikte lezing: De wettekst stelt: “De eerste alinea is van toepassing wanneer aan een van de volgende voorwaarden is voldaan”. Dit suggereert een limitatieve lijst. Als uw AI-systeem niet in één van de vier vakjes past, blijft het hoog risico.
- De pragmatische lezing: Anderen wijzen op Overweging 53, die stelt dat “er gevallen kunnen zijn (…) waarin AI-systemen (…) niet leiden tot een aanzienlijk risico”. Zij betogen dat het hoofdcriterium (“geen wezenlijke invloed op besluitvorming”) leidend is.
Als advocatenkantoor adviseren wij, gezien de potentiële boetes en handhaving, voorlopig een conservatieve benadering. Ga er niet zomaar vanuit dat u buiten de boot valt als u niet exact aan één van de vier voorwaarden voldoet. De bewijslast ligt volledig bij u als aanbieder.
Praktische voorbeelden: wel of geen hoog risico?
Om de abstracte regels tastbaar te maken, kijken we naar enkele specifieke scenario’s:
1. Emotieherkenning in klantenservice (kwaliteitsmonitoring)
Een bedrijf gebruikt AI om opgenomen klantgesprekken te analyseren op emotionele toon (bv. “klant was gefrustreerd”) om algemene kwaliteitstrends te meten.
- Analyse: Indien dit geaggregeerd gebeurt en niet leidt tot individuele beoordeling of profilering van de werknemer, kan beargumenteerd worden dat dit geen wezenlijke invloed heeft op besluitvorming over personen (Artikel 6(3)(c)).
- Let op: Hoewel het mogelijk geen hoog-risico systeem is conform Bijlage III, vallen systemen voor emotieherkenning wel onder de transparantieverplichtingen van Artikel 50 (tenzij wettelijk uitgezonderd). Betrokkenen moeten weten dat het systeem actief is.
2. Hulp bij vergunningaanvragen
Een AI-tool helpt burgers bij het invullen van een bouwaanvraag door te wijzen op ontbrekende velden of onduidelijk taalgebruik, zonder zelf te beoordelen of de vergunning verleend moet worden.
- Analyse: Dit valt waarschijnlijk onder de uitzondering van Artikel 6(3)(a) (beperkte procedurele taak) of 6(3)(b) (verbeteren resultaat menselijke activiteit). De AI velt geen oordeel over de inhoudelijke toewijsbaarheid, maar structureert slechts de input.
De harde grens: profilering
Er is één uitzondering op de uitzondering. Artikel 6(3) (laatste alinea) is kristalhelder:
“Niettegenstaande de eerste alinea wordt een in bijlage III bedoeld AI-systeem altijd als een AI-systeem met een hoog risico beschouwd indien het AI-systeem profilering van natuurlijke personen uitvoert.”
Indien uw systeem persoonsgegevens gebruikt om aspecten van een natuurlijk persoon te evalueren (zoals werkprestaties, economische situatie, gezondheid, persoonlijke voorkeuren, etc.), vervalt de mogelijkheid tot uitzondering direct. Profilering in een Bijlage III-context is per definitie hoog risico.
Uw verplichtingen bij een beroep op de uitzondering
Indien u als aanbieder van oordeel bent dat uw systeem – ondanks vermelding in Bijlage III – onder de uitzondering van Artikel 6(3) valt, bent u niet vrijgesteld van administratieve lasten. U moet volgens Artikel 6(4):
- Documenteren: Een schriftelijke beoordeling opstellen voordat het systeem in de handel wordt gebracht. Hierin motiveert u waarom het systeem geen significant risico vormt.
- Beschikbaar houden: Deze documentatie moet op verzoek direct aan de nationale toezichthouders (in België de bevoegde markttoezichtautoriteit) worden overgelegd.
- Registreren: U bent verplicht zich te registreren in de komende EU-databank en daar aan te geven dat u gebruikmaakt van de uitzondering.
Veelgestelde vragen (FAQ)
Wat als AI autonoom technische documentatie schrijft op basis van ruwe notities?
Indien een AI-systeem (bijvoorbeeld een GenAI-model) technische documentatie genereert voor medische hulpmiddelen of machines (die zelf onder veiligheidswetgeving vallen), is de vraag of dit een veiligheidscomponent is. Als er sprake is van een human-in-the-loop (een ontwikkelaar die de output valideert en finaliseert), kan worden betoogd dat de AI slechts een menselijke activiteit verbetert (Art. 6(3)(b)). Echter, als de AI zonder toezicht output genereert die direct als compliance-documentatie dient, zijn de risico’s aanzienlijk groter.
Is de lijst met uitzonderingen in Artikel 6(3) definitief?
Op dit moment wel. Echter, Artikel 6(6) geeft de Europese Commissie de bevoegdheid om via gedelegeerde handelingen de lijst met voorwaarden te wijzigen of uit te breiden als er bewijs is van nieuwe ‘veilige’ AI-toepassingen. De regelgeving is dus dynamisch.
Conclusie
De kwalificatie als ‘hoog-risico’ AI is geen zwart-wit verhaal. Artikel 6(3) biedt ruimte voor nuance, maar het is geen vrijbrief. De grens tussen een ‘beperkte procedurele taak’ en ‘wezenlijke invloed op besluitvorming’ is in de praktijk dun en juridisch complex. Een verkeerde inschatting kan leiden tot handhaving door toezichthouders wegens het niet-naleven van de verplichtingen voor hoog-risico systemen.



