Artificiële intelligentie in documentaires: wat zijn de juridische valkuilen voor filmmakers?

Steeds meer documentairemakers maken gebruik van artificiële intelligentie (AI) om unieke beelden, stemmen of verhaallijnen te creëren, maar deze innovatie brengt juridische risico’s met zich mee. Om boetes en reputatieschade te voorkomen, moeten makers strikt rekening houden met het portretrecht, auteursrechtelijke inbreuken vermijden en zich voorbereiden op de strenge transparantieplichten voor deepfakes onder de Europese AI Act. De gouden regel voor elke productie luidt: verzeker u van de juiste toestemmingen en documenteer elke stap van uw AI-creatieproces.

Bescherming van afbeelding en stem

Een van de meest kritieke punten bij het maken van documentaires is het gebruik van de beeltenis of de stem van een individu. Binnen het Belgische en Europese recht is het recht op afbeelding (het portretrecht) en de bescherming van persoonsgegevens sterk verankerd.

Als algemene regel geldt dat u voor het gebruik of het nabootsen van iemands stem en uiterlijk via AI expliciete toestemming nodig heeft. Dit valt onder de bepalingen van de Algemene Verordening Gegevensbescherming (AVG/GDPR) en het Belgische recht op privacy (waaronder het recht op afbeelding).

Er bestaan uitzonderingen voor publieke figuren of beroemdheden wanneer het gaat om actuele nieuwsgaring en informatieverstrekking. U mag over hen rapporteren zonder voorafgaande toestemming. Deze uitzondering is echter niet absoluut. Wanneer u AI gebruikt om scènes met publieke figuren te genereren die diep in de privésfeer binnendringen, of wanneer u via een ‘deepfake’ misleidende informatie of valse feiten presenteert, overschrijdt u de grens. Dergelijke verkeerde voorstellingen van feiten kunnen snel gekwalificeerd worden als laster en eerroof (strafrechtelijk sanctioneerbaar) en leiden tot schadeclaims.

Auteursrechtelijke risico’s van AI-gegenereerde output

Documentairemakers moeten waakzaam zijn voor auteursrechtelijke inbreuken wanneer zij output van generatieve AI-modellen gebruiken in hun films. Algemene AI-modellen (zoals Midjourney of ChatGPT) worden getraind op miljarden bestaande werken. Hierdoor is de output die zij genereren niet per definitie “copyright safe”.

Het integreren van AI-gegenereerde beelden, muziek of teksten kan dan ook een schending vormen van bestaande intellectuele eigendomsrechten, zoals verankerd in Boek XI van het Belgische Wetboek van Economisch Recht.

De aanpak voor filmmakers:

  • Dubbelcheck uw output: Verifieer altijd of de gegenereerde content niet te sterk lijkt op een bestaand, auteursrechtelijk beschermd werk.
  • Documentatieplicht: Houd een gedetailleerd logboek bij van welke AI-tools u heeft gebruikt, welke ‘prompts’ u heeft ingevoerd en hoe het eindresultaat tot stand is gekomen. Mocht er ooit een claim volgen, dan is een sluitende administratie belangrijk voor uw juridische verdediging.

De Europese AI Act: nieuwe transparantieregels voor deepfakes vanaf 2026

De juridische context rond artificiële intelligentie is volop in beweging. Een belangrijke aandachtspunt voor de film- en mediasector is de Europese AI Act.

Vanaf 2 augustus 2026 treedt Artikel 50 van deze verordening in werking, dat een strikte transparantieverplichting oplegt voor deepfakes. Dit betekent dat u als documentairemaker wettelijk verplicht bent om aan de kijker kenbaar te maken dat bepaalde scènes, stemmen of beelden met AI zijn gegenereerd of gemanipuleerd. Dit moet op een duidelijke en onderscheidbare manier gebeuren. De enige uitzondering hierop is wanneer het voor de gemiddelde kijker overduidelijk is dat het om een creatief of satirisch effect gaat, al is die grens in documentaires (waarbij waarheidsvinding centraal staat) uiterst dun.

Veelgestelde vragen

Mag ik een AI-stemkloon van een politicus gebruiken zonder toestemming?
Nee, in de meeste gevallen niet, zeker niet als u de politicus dingen laat zeggen die hij of zij nooit heeft gezegd. Hoewel er een bredere informatievrijheid geldt rond publieke figuren, valt het creëren van valse uitspraken via AI al snel onder misleiding of laster.

Wie is aansprakelijk als een AI-tool inbreuk maakt op andermans auteursrecht?
Als maker of productiehuis bent u in de eerste plaats zelf verantwoordelijk voor de content die u in uw documentaire opneemt en publiceert. Zelfs als een AI-model de inbreukmakende content heeft gecreëerd, bent u als partij die het materiaal exploiteert aansprakelijk voor de inbreuk.

Biedt de vermelding in de aftiteling voldoende transparantie voor deepfakes?
Volgens de geest van de naderende Europese AI Act zal enkel een onopvallende vermelding in de aftiteling waarschijnlijk niet volstaan. De transparantie moet effectief en duidelijk zijn voor de kijker op het moment dat de manipulatie in beeld komt.

Conclusie

De integratie van AI in documentaires biedt ongekende creatieve mogelijkheden, maar het juridische speelveld is complex en onvergeeflijk. Van het portretrecht en auteursrechtelijke compliance tot de nieuwe transparantieregels uit de AI Act: een proactieve, juridische controle van uw productie is in België geen overbodige luxe, maar een absolute noodzaak.


Joris Deene

Advocaat-partner bij Everest Advocaten

Contact

Vragen? Advies nodig?
Neem contact op met Advocaat Joris Deene.

Telefoon: 09/280.20.68
E-mail: joris.deene@everest-law.be

Topics