De razendsnelle opkomst van generatieve AI-tools zoals DALL·E, Midjourney en Stable Diffusion heeft het kinderspel gemaakt om beelden te genereren of te manipuleren op basis van tekstcommando’s. Maar mag je deze beelden zomaar gebruiken? En hoe zit dat juridisch als het gaat om misleidende of foutieve content, zoals beelden die “echter dan echt” lijken?
AI-beelden: artistieke vrijheid of juridische valkuil?
AI-beelden circuleren volop op sociale media. Denk aan video’s over geschiedkundige gebeurtenissen die viraal gaan op TikTok en Instagram. Hoewel deze beelden esthetisch indrukwekkend zijn, zitten ze vaak vol historische fouten. Toch zijn ze bijzonder overtuigend, juist door hun realisme.
Dat roept de vraag op: mag je zulke beelden zomaar publiceren of gebruiken?
Geen algemeen verbod op onjuiste AI-content
In België (en ruimer binnen de EU) is desinformatie niet strafbaar op zich. Er bestaat geen algemeen verbod op het verspreiden van feitelijk onjuiste informatie, ook niet wanneer die via AI tot stand kwam. De vrijheid van meningsuiting en van artistieke expressie blijft hierin een belangrijke factor.
Toch betekent dit niet dat elk gebruik zonder risico is.
Nieuwe Europese regels: DSA en AI Act
Er zijn intussen wél Europese regels die AI-content reguleren, vooral met het oog op transparantie en platformverantwoordelijkheid:
- Digital Services Act (DSA): artikel 34 legt zeer grote online platforms (VLOPs) en zeer grote online zoekmachinges (VLOSEs) verplichtingen op om systeemrisico’s te identificeren en aan te pakken. Ze moeten een risicobeoordeling uitvoeren en maatregelen nemen tegen onder meer misleidende of bedrieglijke inhoud, met inbegrip van desinformatie (overweging 84).
- AI Act:
- Artikel 50.2 eist dat aanbieders van generatieve AI duidelijk moeten markeren wanneer een beeld, video, audio of tekst kunstmatig is gegenereerd of gemanipuleerd. Dit moet gebeuren in een machineleesbaar formaat en detecteerbaar zijn (bijv. via Content Credentials en/of meldingen als “made by AI”).
- Specifiek voor zgn. deepfakes vereist artikel 50.4 dat gebruikers van GenAI expliet bekend moeten maken dat het kunstmatig gegenereerd of gemanipuleerd materiaal gaat.
Waar liggen de juridische grenzen?
Hoewel een puur foutief beeld niet strafbaar is, kunnen volgende juridische risico’s wél spelen:
- Portretrecht en privacy – Als een AI-beeld lijkt op een bestaande persoon, kan die zich beroepen op het portretrecht (art. XI.174 WER) of zelfs privacybescherming (art. 8 EVRM).
- Merkenrecht of auteursrecht – Bij herkenbare logo’s of originele expressies kan sprake zijn van een merkenrechtelijke of auteursrechtelijke inbreuk als AI gebruikmaakt van beschermde onderscheidingsteksten of werken.
- Misleiding of reputatieschade – Bij gebruik van AI-beelden in commerciële context (zoals reclame) kunnen regels uit het consumentenrecht of het handelspraktijkenrecht (Boek VI WER) van toepassing zijn, met name bij bedrieglijke voorstelling van zaken.
- Strafrechtelijke aansprakelijkheid – In extreme gevallen kunnen AI-beelden gebruikt worden voor laster, haatzaaien of identiteitsfraude (bv. bij nepvideo’s van publieke figuren).
Praktische aanbevelingen
Als advocaat adviseren wij volgende best practices bij het gebruik van AI-beelden:
- Markeer beelden als gegenereerd of gemanipuleerd, zeker als ze realistisch lijken of misverstanden kunnen opwekken.
- Gebruik geen AI-beelden van bestaande personen zonder toestemming, tenzij er een duidelijke uitzondering (zoals satire of publieke figuur in publieke context) geldt.
- Vermijd gebruik van misleidende AI-beelden in commerciële communicatie zonder duidelijke context.
- Volg de evolutie van de Europese regelgeving: zowel de AI Act als de DSA leggen meer transparantieverplichtingen op aan bedrijven en platformen.