Vallen sekspoppen met AI onder de AI Act?

De opkomst van geavanceerde sekspoppen, uitgerust met artificiële intelligentie (AI), roept fundamentele juridische vragen op. Hoewel de nieuwe Europese AI Act is ontworpen om de risico’s van AI te beheersen, worden deze specifieke technologieën niet expliciet genoemd. Dit leidt tot onzekerheid. Het antwoord is ja, sekspoppen met AI vallen wel degelijk onder de AI Act, maar de specifieke regels die van toepassing zijn, hangen af van de concrete AI-functionaliteiten en het risiconiveau dat de wetgever eraan koppelt.

De juridische context: innovatie versus maatschappelijke risico’s

Sekspoppen evolueren van statische objecten naar interactieve ‘partners’ die gesprekken kunnen voeren, emoties kunnen simuleren en leren van hun gebruikers. Voorstanders wijzen op mogelijke voordelen, zoals het bieden van gezelschap aan eenzame mensen of het dienen als seksueel hulpmiddel voor ouderen en personen met een beperking.

Tegelijkertijd waarschuwen critici voor aanzienlijke risico’s. Denk hierbij aan:

  • Het versterken van schadelijke stereotypes: Veel modellen zijn ontworpen met overdreven en stereotiepe vrouwelijke kenmerken, wat de objectivering van vrouwen kan bestendigen.
  • Risico’s voor databescherming: Deze apparaten verzamelen uiterst gevoelige en intieme persoonsgegevens, wat bij een datalek of misbruik ernstige gevolgen kan hebben voor de gebruiker.
  • Emotionele afhankelijkheid en misleiding: De hyperrealistische interacties kunnen de grens tussen mens en machine doen vervagen, wat kan leiden tot ongezonde afhankelijkheid.

Het is tegen deze achtergrond dat de Europese Unie de AI Act (Verordening (EU) 2024/1689) heeft ingevoerd. Deze wetgeving creëert een juridisch kader voor de ontwikkeling en het gebruik van AI binnen de EU, met als doel innovatie te ondersteunen en tegelijkertijd de fundamentele rechten, de veiligheid en de democratie te beschermen.

De regelgeving: de risicocategorieën van de AI Act

De AI Act hanteert een risicogebaseerde aanpak. AI-systemen worden ingedeeld in verschillende categorieën, elk met eigen verplichtingen. Omdat sekspoppen niet als zodanig worden genoemd, moet per model worden gekeken naar de specifieke AI-componenten.

1. Onacceptabel risico (verboden AI)

De AI Act verbiedt AI-systemen die ontworpen zijn om mensen te misleiden of de kwetsbaarheden van bepaalde groepen uit te buiten, met als gevolg dat zij schade oplopen. Een sekspop zou hieronder kunnen vallen als deze bijvoorbeeld is ontworpen om een gebruiker met een psychische kwetsbaarheid te manipuleren om significante financiële uitgaven te doen.

2. Hoog risico

Een sekspop kan als ‘hoog risico’ worden beschouwd als deze gebruikmaakt van emotieherkenningssystemen. Dit zijn systemen die biometrische data (zoals gezichtsuitdrukkingen of stemintonatie) analyseren om de emotionele toestand van een gebruiker te bepalen.

Indien een model onder deze categorie valt, gelden er strenge verplichtingen voor de fabrikant, waaronder:

  • Een robuust risicobeheersysteem.
  • Strikte regels voor data-governance en documentatie.
  • Menselijk toezicht en transparantie naar de gebruiker.
  • Een conformiteitsbeoordeling en het aanbrengen van de CE-markering om aan te tonen dat het product aan de wettelijke eisen voldoet.

3. Beperkt risico

Veel sekspoppen zullen in deze categorie vallen, omdat ze bedoeld zijn voor directe interactie met mensen (bv. via een chatbotfunctie). De belangrijkste verplichting hier is transparantie: de gebruiker moet duidelijk geïnformeerd worden dat hij met een AI-systeem communiceert, tenzij dit overduidelijk is uit de context.

4. AI-modellen voor algemeen gebruik (GPAI)

Wanneer een sekspop gebruikmaakt van geavanceerde generatieve AI (vergelijkbaar met ChatGPT) om unieke gesprekken te voeren of zijn persoonlijkheid dynamisch aan te passen, valt dit model onder de regels voor GPAI. Dit brengt specifieke verplichtingen met zich mee, voornamelijk op het vlak van technische documentatie en het informeren van andere ontwikkelaars die het model integreren.

5. Minimaal risico

Eenvoudigere modellen met enkel voorgeprogrammeerde reacties en zonder lerend vermogen vallen in de categorie ‘minimaal risico’. De AI Act legt voor deze systemen geen verplichtingen op, maar moedigt de sector wel aan om vrijwillige gedragscodes op te stellen.

Juridische analyse en duiding

De complexiteit bij de regulering van sekspoppen ligt in het feit dat één enkel product componenten kan bevatten uit meerdere risicocategorieën. Een pop kan een ‘beperkt risico’ chatbot hebben, maar tegelijkertijd een ‘hoog risico’ emotieherkenningssysteem. De fabrikant zal dus voor elke functie afzonderlijk de conformiteit met de AI Act moeten beoordelen.

De ratio legis (de bedoeling van de wetgever) van de AI Act is duidelijk: hoe groter het potentiële risico voor de fundamentele rechten van de burger, hoe strenger de regels. Een cruciaal juridisch knelpunt zal de interpretatie van ‘misleiding’ en ‘manipulatie’ zijn. Waar eindigt de gewenste illusie waar een gebruiker bewust voor kiest, en waar begint de verboden praktijk die schade veroorzaakt? De rechtspraak zal hier in de toekomst meer duidelijkheid moeten scheppen.

Bovendien is het belangrijk te benadrukken dat de AI Act niet in een vacuüm bestaat. Deze wetgeving moet samen gelezen worden met andere regelgeving, zoals de Algemene Verordening Gegevensbescherming (AVG) en de Verordening betreffende algemene productveiligheid.

Wat dit concreet betekent

  • Voor ontwikkelaars en fabrikanten: U moet een grondige juridische en technische analyse uitvoeren van uw product om te bepalen welke AI-componenten onder welke risicocategorie vallen. Compliance is geen afvinklijstje; het vereist een proactieve benadering van risicobeheer, documentatie en transparantie. Vooral bij hoog-risicosystemen zijn de verplichtingen zeer ingrijpend.
  • Voor gebruikers: U hebt recht op duidelijke informatie. De fabrikant moet transparant zijn over het feit dat u met een AI interageert en, in het geval van hoog-risicosystemen, over de werking en de risico’s ervan. Wees u bewust van de data die u deelt en de emotionele impact die dergelijke technologieën kunnen hebben.
  • Voor de samenleving: De AI Act biedt een eerste kader om de meest ernstige risico’s van AI in intieme contexten aan te pakken. De wetgeving poogt een evenwicht te vinden tussen technologische innovatie en de bescherming van de menselijke waardigheid, autonomie en veiligheid.

FAQ (Veelgestelde vragen)

Is mijn sekspop met AI nu verboden?
Nee, sekspoppen als product zijn niet verboden. Alleen AI-systemen die ontworpen zijn met de specifieke intentie om op een schadelijke manier te manipuleren of kwetsbaarheden uit te buiten, vallen onder het verbod van de AI Act.

Hoe weet ik onder welke risicocategorie mijn apparaat valt?
Voor hoog-risicosystemen is de fabrikant verplicht om een conformiteitsbeoordeling uit te voeren en dit kenbaar te maken via de CE-markering. Voor systemen met een beperkt risico moet u geïnformeerd worden dat u met AI interageert. Deze informatie moet duidelijk en begrijpelijk zijn.

Wie is aansprakelijk als de AI van mijn sekspop schade veroorzaakt?
De AI Act regelt de preventieve veiligheidsregels, maar niet de aansprakelijkheid voor schade. De vraag wie de schade vergoedt, wordt beantwoord door andere wetgeving. In de EU zijn dat voornamelijk de Richtlijn Productaansprakelijkheid (als de schade komt door een gebrekkig product) en de nationale wetgeving rond onrechtmatige daad (foutaansprakelijkheid – artikel 6.5 BW). Een overtreding van de regels van de AI Act door de fabrikant kan in een rechtszaak wel als een sterke aanwijzing van een “fout” worden gebruikt om diens aansprakelijkheid te bewijzen.

Conclusie

De AI Act creëert een noodzakelijk, maar complex juridisch kader voor sekspoppen en andere intieme AI-technologieën. De classificatie is niet eenduidig en hangt volledig af van de specifieke technische functionaliteiten. Fabrikanten moeten een gedetailleerde risicoanalyse uitvoeren om hun wettelijke verplichtingen te bepalen, terwijl gebruikers zich bewust moeten zijn van hun rechten op transparantie en veiligheid.


Joris Deene

Advocaat-partner bij Everest Advocaten

Contact

Vragen? Advies nodig?
Neem contact op met Advocaat Joris Deene.

Telefoon: 09/280.20.68
E-mail: joris.deene@everest-law.be

Topics