Maakt een AI-model dat getraind is op foto’s een inbreuk op het auteursrecht?

Generatieve AI-systemen zoals Stable Diffusion worden getraind op miljarden beelden die van het internet zijn gehaald. Veel van die beelden zijn auteursrechtelijk beschermd. De vraag die creatieven en juristen wereldwijd bezighoudt, is dan ook: is dit proces legaal? Een baanbrekende uitspraak van het Britse Hooggerechtshof van 4 november 2025 in de zaak Getty Images v Stability AI geeft een eerste, genuanceerd antwoord.

Het hof oordeelde dat het AI-model zelf geen “inbreukmakend exemplaar” is, voornamelijk omdat het model de beschermde werken niet opslaat of reproduceert. Dit is een overwinning voor AI-ontwikkelaars, hoewel Getty Images een zeer beperkte overwinning behaalde op het vlak van merkinbreuk.

De feiten: waar draaide de zaak om?

De bekende beeldbank Getty Images daagde Stability AI, de ontwikkelaar van het populaire AI-beeldgeneratiemodel Stable Diffusion, voor de Britse rechter. De claims van Getty Images waren drieledig:

  1. Primaire auteursrechtinbreuk: Getty stelde dat het trainen van het AI-model op miljoenen van haar beelden een directe reproductie en dus een inbreuk op het auteursrecht vormde.
  2. Secundaire auteursrechtinbreuk: Getty argumenteerde dat het aanbieden en importeren van het getrainde AI-model (Stable Diffusion) in het Verenigd Koninkrijk neerkwam op het verdelen van een “inbreukmakend exemplaar” (‘infringing copy’).
  3. Merkinbreuk: Ten slotte claimde Getty dat het AI-model beelden genereerde die een vervormde versie van het “Getty Images” of “iStock” watermerk bevatten, wat een inbreuk op haar merkrechten zou vormen.

De beslissing van het Britse Hooggerechtshof

De uitspraak van 205 pagina’s is complex, maar de uitkomst kan worden samengevat in drie delen, die overeenkomen met de claims van Getty.

De claim over de AI-training zelf: onbeantwoord

Dit is misschien wel het meest cruciale punt dat niet werd beslist. Getty Images liet haar claim over de primaire auteursrechtinbreuk (het eigenlijke trainen) vóór het einde van het proces vallen.

De reden hiervoor was puur territoriaal: de training van Stable Diffusion had niet plaatsgevonden in het Verenigd Koninkrijk. Hierdoor kon de Britse rechter zich niet uitspreken over de fundamentele vraag of het trainen van een AI op auteursrechtelijk beschermd materiaal op zich al dan niet een inbreuk vormt.

De claim over het AI-model als ‘inbreukmakend exemplaar’: afgewezen

Dit was de grootste overwinning voor Stability AI. De rechter wees de claim van secundaire auteursrechtinbreuk volledig van de hand.

Getty’s argument was dat het model, dat getraind was op illegale kopieën, zelf een “inbreukmakend exemplaar” was geworden, zoals bedoeld in de Britse auteurswet (de Copyright, Designs and Patents Act of CDPA).

De rechter volgde deze redenering niet. De kern van de motivatie is technisch:

“Although an “article” may be an intangible object for the purposes of the CDPA, an AI model such as Stable Diffusion which does not store or reproduce any Copyright Works (and has never done so) is not an “infringing copy” such that there is no infringement under sections 22 and 23 CDPA.”

Met andere woorden: het AI-model leert van de data, maar het bevat de data niet. Het model bestaat uit ‘model weights’ (een reeks wiskundige parameters) die patronen hebben geleerd, maar het slaat geen kopieën van de originele foto’s op. Omdat het model zelf geen reproductie is van de werken, kan het ook geen “inbreukmakend exemplaar” zijn.

De claim over merkinbreuk: beperkt toegewezen

Getty Images behaalde wel een kleine, maar belangrijke, overwinning op het vlak van merkinbreuk.

De rechter stelde vast dat oudere versies van Stable Diffusion (v1.x en v2.x) inderdaad beelden konden genereren die (vervormde) Getty- of iStock-watermerken bevatten. Dit werd beschouwd als merkinbreuk omdat het verwarring kon zaaien bij het publiek over de herkomst van het beeld.

De rechter benadrukte echter dat deze vaststelling “zowel historisch als uiterst beperkt van opzet” was. De claims met betrekking tot de nieuwere modellen (SD XL en v1.6) werden afgewezen, omdat Stability AI dit probleem duidelijk had aangepakt en deze modellen de watermerken niet langer genereerden. De claims over reputatieschade en het trekken van ongerechtvaardigd voordeel werden eveneens afgewezen.

Juridische analyse en duiding (in een Belgische context)

Hoewel deze uitspraak afkomstig is uit het Verenigd Koninkrijk en dus geen bindende kracht heeft in België, is de impact ervan toch groot. De redenering van de Britse rechter zal ongetwijfeld worden aangehaald in gelijkaardige procedures in de EU.

Het territorialiteitsprobleem

Dat de claim over de training zelf strandde op de territorialiteitskwestie, illustreert de grote horde voor creatieven. Een Belgische fotograaf wiens werk is gebruikt, zou moeten bewijzen waar de training heeft plaatsgevonden (vermoedelijk in de VS) en daar een rechtszaak moeten aanspannen. Dit is financieel en praktisch een enorme drempel.

De training en de Belgische TDM-uitzondering

De Britse rechter heeft zich niet uitgesproken over de legaliteit van het trainingsproces. Mocht dit proces in België plaatsvinden, zou dit de kern van het debat zijn.

Tijdens de training worden beschermde werken geanalyseerd. Dit vereist het maken van reproducties, al zijn ze maar tijdelijk, indirect of gedeeltelijk. Deze handelingen vallen onder de zeer brede definitie van het reproductierecht in artikel XI.165, §1 van het Belgisch Wetboek van Economisch Recht (WER).

In België (en de EU) zou de AI-ontwikkelaar zich echter kunnen beroepen op de uitzondering voor Text- and Data-Mining (TDM), omgezet in Art. XI.190, 20° WER. Deze uitzondering laat het maken van reproducties voor trainingsdoeleinden expliciet toe, tenzij de rechthebbende zich hiertegen uitdrukkelijk en op een passende wijze heeft verzet (de ‘opt-out’). De juridische strijd in België over het trainingsproces zal dus niet wellicht gaan over de vraag of er reproducties zijn gemaakt, maar wel over de vraag of de opt-out van de auteur al dan niet is gerespecteerd.

Het AI-model en de Belgische ‘idee/expressie’-leer

De Britse rechter oordeelde enkel over het eindproduct: is het model zelf een illegale kopie? Het antwoord was neen, omdat het model enkel patronen en ‘geleerde’ concepten bevat, maar niet de originele foto’s (de ‘expressie’) .

Deze redenering sluit zeer nauw aan bij een fundamenteel Belgisch auteursrechtelijk principe: de idee/expressie dichotomie. Het auteursrecht, zoals bevestigd door internationale verdragen (TRIPS, WIPO) en het Belgische Hof van Cassatie (bv. arrest van 17 februari 2017), beschermt niet het idee, het concept, de werkwijze of de stijl achter een werk. Het beschermt enkel de concrete uitdrukkingsvorm (de ‘expressie’).

Het argument van Stability AI, dat door de Britse rechter werd gevolgd, is dat het AI-model enkel de ‘ideeën’, ‘patronen’ en ‘stijl’ heeft gedistilleerd uit de trainingsdata. Het eindproduct bevat dus enkel onbeschermde elementen, geen beschermde expressie. De kans is reëel dat een Belgische rechter, op basis van ditzelfde principe, tot een gelijkaardige conclusie zou komen wat betreft het eindproduct.

Wat dit concreet betekent

Voor AI-ontwikkelaars

De uitspraak is grotendeels positief. Het argument dat het AI-model zelf geen inbreukmakend exemplaar is, is een krachtig verweer. De beperkte veroordeling voor merkinbreuk is echter een duidelijke waarschuwing: AI-ontwikkelaars moeten hun output actief filteren om de generatie van herkenbare merken, logo’s of watermerken te voorkomen. De fundamentele legaliteit van het trainingsproces blijft in de EU echter afhankelijk van de TDM-uitzondering en het respecteren van opt-outs.

Voor creatieven en rechthebbenden

De uitspraak is een teleurstelling. De piste van de ‘secundaire inbreuk’ (het model zelf aanvechten) lijkt in het VK afgesloten. De focus ligt nu best op het afdwingen van de TDM-opt-out. Creatieven dienen hun werken op een ‘machine-leesbare’ manier te labelen om TDM te verbieden. Daarnaast blijft de strijd tegen de outputs (als die te veel lijken op een specifiek werk) een mogelijke piste.

Voor ondernemingen die AI-tools gebruiken

Wees u bewust van de risico’s van de output. Deze uitspraak bevestigt dat als een AI-tool een beeld genereert dat een merk bevat (zoals een watermerk of een logo ), u een merkinbreuk begaat als u dat beeld commercieel gebruikt. De eindgebruiker draagt hier een significante verantwoordelijkheid. Een grondige controle van AI-gegenereerde beelden alvorens publicatie is essentieel.

Veelgestelde vragen (FAQ)

Is het trainen van AI op auteursrechtelijk beschermd materiaal nu legaal?
Niet noodzakelijk. Deze Britse uitspraak heeft die kernvraag niet beantwoord, omdat de training buiten de jurisdictie van het hof plaatsvond. In België en de EU hangt de legaliteit af van de uitzondering voor Text- and Data-Mining (TDM) en of de rechthebbende van de data zich hiertegen heeft verzet (een ‘opt-out’).

Mijn AI-tool heeft een beeld gemaakt met een logo erin. Mag ik dat gebruiken?
Neen, wees zeer voorzichtig. De uitspraak bevestigde dat het genereren van watermerken (een merk) wel degelijk merkinbreuk kan zijn. Als uw AI-output een herkenbaar merk bevat, loopt u als commerciële gebruiker een groot risico op een claim wegens merkinbreuk.

Is het AI-model zelf nu een ‘illegale kopie’?
Volgens deze Britse rechter: neen. Omdat het model de originele beelden niet bevat of opslaat in hun originele vorm, is het model zelf geen “inbreukmakend exemplaar” (‘infringing copy’). De rechter ziet het model als een nieuw product dat gemaakt is met de data, maar het is de data niet.

Conclusie

De uitspraak Getty v Stability AI is een belangrijke overwinning voor AI-ontwikkelaars, die de vrees wegneemt dat hun AI-modellen zelf als illegale kopieën kunnen worden bestempeld. De fundamentele vraag of de training zelf geoorloofd is, blijft echter onbeantwoord.

Voor creatieven toont dit aan dat de juridische strijd zich moet verplaatsen van het model naar het trainingsproces (en de TDM opt-out in de EU) en naar de specifieke outputs die te dicht bij hun werk aanleunen. De beperkte veroordeling voor merkinbreuk is een duidelijke waarschuwing voor alle partijen: de output van AI is niet rechtenvrij.


Lees meer over Artificiële Intelligentie en auteursrecht.

Joris Deene

Advocaat-partner bij Everest Advocaten

Contact

Vragen? Advies nodig?
Neem contact op met Advocaat Joris Deene.

Telefoon: 09/280.20.68
E-mail: joris.deene@everest-law.be

Topics