Thema

Auteursrecht en AI

De laatste tijd is er veel te doen over kunst en  Artificial Intelligence (AI). Pictoright volgt alle ontwikkelingen op de voet en krijgt veel berichten van bezorgde makers. Hoewel AI voor makers ook kansen kan bieden, begrijpt Pictoright de ontstane onrust. De huidige wetgeving beschermt makers niet optimaal tegen gebruik van hun werk voor commerciële AI doeleinden. Dat is zorgelijk. Pictoright zal zich daarom samen met de organisaties uit de Federatie Beeldrechten en haar Europese partners waar mogelijk en noodzakelijk de komende tijd inzetten voor een verbetering van de auteursrechtelijke positie van makers in commerciële AI processen.

We hebben de meest gestelde vragen en de huidige stand van zaken verzameld in dit dossier. Uiteraard zullen we ervoor zorgen dat het regelmatig wordt geactualiseerd.

Wie traint de Robot kunstenaar?

De razendsnelle ontwikkelingen op het gebied van kunstmatige intelligentie (AI) houden de gemoederen flink bezig. Nu deze technologie ineens zo toegankelijk is geworden voor een breed publiek, worden we geconfronteerd met de onstuitbare opmars van AI en de ingrijpende gevolgen daarvan. In dit artikel een juridische update voor beeldmakers.

Wanneer we het hier over AI hebben gaat het over de zogenaamde ‘generatieve AI’: algoritmes die op basis van een (simpele) tekstopdracht zelf iets nieuws kunnen genereren. Daaronder valt bijvoorbeeld ChatGPT, die op basis van een geschreven opdracht een tekst kan produceren (text-to-text), maar ook de AI-systemen die zo’n opdracht – een ‘prompt’ – kunnen omzetten in een beeld (text-to-image). De meest bekende voorbeelden hiervan zijn Dall-e, Midjourney en Stability AI. Deze vrij toegankelijke online AI-systemen kunnen op grote schaal worden gebruikt voor het creëren van afbeeldingen. Het is dan ook begrijpelijk dat dit tot onrust leidt onder beeldmakers.

De mens is al heel lang bang voor de concurrentie van de machine: er bestaat ontzettend veel science fiction waarin de robots het uiteindelijk winnen van de mens. Maar hoe realistisch is dit horrorscenario, en hoe zit dit voor de beeldmaker? Nemen AI-systemen op den duur het stokje over van de menselijke beeldmakers, illustratoren en fotografen? Begrijpelijke vragen waar nu nog lastig antwoord op te geven valt. Maar dat AI een rol zal spelen binnen de beeldsector lijkt onvermijdelijk.

Voor Pictoright dus reden om de ontwikkelingen scherp in de gaten te houden. En hoewel ook op auteursrechtelijk gebied nog veel onduidelijk is over de status van AI, beginnen de juridische contouren al wat duidelijker te worden. Voor een auteursrechtelijke analyse moeten we eerst goed in het werkingsproces van AI duiken. Belangrijk is om daarbij onderscheid te maken tussen twee auteursrechtelijk relevante ‘fases’: de input-fase en de output-fase.

Waar staan we nu?

Bitesize AI

De output-fase betreft het ‘product’ van de AI, en draait voornamelijk om de vraag of AI-creaties auteursrechtelijke bescherming kunnen genieten, of dat dit is voorbehouden aan het werk van menselijke makers. Over de auteursrechtelijke bescherming van teksten en afbeeldingen gemaakt met behulp van AI wordt veel gediscussieerd.

De consensus lijkt op het moment dat de output van AI-systemen mogelijk auteursrechtelijk beschermd kan zijn, maar dat hier wel aanvullende voorwaarden aan verbonden zijn. Zélf kunnen AI-systemen in principe geen auteursrechthebbende zijn: Artificial Intelligence is nog niet zo ver ontwikkeld dat het systeem zelf een drager van rechten kan zijn. De ontwikkelaar van het AI-systeem zal in de meeste gevallen ook niet de auteursrechthebbende op de output zijn, maar mogelijk wel de rechthebbende op het werkingssysteem of de computercode achter de AI. De enige mogelijk relevante partij die overblijft, is de gebruiker van een AI-systeem: degene die het systeem de opdracht geeft om iets te ontwikkelen. Deze kan eventueel auteursrecht hebben op een AI-creatie als er voldoende creatieve keuzes worden gemaakt, bijvoorbeeld bij het selecteren van de trainingsdata of binnen de instructies die aan het systeem worden gegeven. Denk hierbij aan een situatie waarin een persoon een concept ontwikkelt en daarvoor een heel originele ‘prompt’ invoert. In zulke gevallen wordt het AI-systeem in feite gebruikt als een soort tool, zoals je ook een kwast gebruikt. Datzelfde geldt bijvoorbeeld als sprake is van uitgebreide nabewerking van de AI-output. Als degene die de prompts invoert of het beeld nabewerkt voldoende creatieve arbeid verricht, kan er alsnog auteursrechtelijke bescherming ontstaan. Hoe en óf een en ander vervolgens moet worden bewezen, staat nog ter discussie.

Een andere belangrijke vraag is of de AI-output inbreuk kan maken op het auteursrecht van een menselijke maker, bijvoorbeeld doordat iemand een werk ‘in de stijl van’ genereert. Daarbij moet voorop worden gesteld dat kunststromingen of -stijlen niet onder de auteursrechtelijke bescherming vallen, omdat dit de artistieke ontwikkeling zou kunnen remmen. Iemand mag dus iets maken in een specifieke stijl, of dit nu met de hulp van AI is of niet. Een AI-productie in de stijl van een specifieke maker kan mogelijk wél inbreuk maken, wanneer zogenaamde ‘auteursrechtelijk beschermde trekken’ zijn overgenomen. Dit kan bijvoorbeeld het geval zijn als niet alleen in heel abstracte zin de stijl wordt geïmiteerd, maar echt bepaalde auteursrechtelijk beschermde elementen uit het werk van deze maker worden overgenomen. De beoordeling hiervan is sterk afhankelijk van de omstandigheden, en dient per geval individueel beoordeeld te worden.

Om een werk in een bepaalde stijl te maken moet de AI natuurlijk wel bekend zijn met deze stijl. Dit gebeurt in de zogenaamde input-fase. De vraag die in deze fase centraal staat is: wat gaat er eigenlijk de AI ‘in’ en hoe wordt het systeem getraind om nieuwe dingen te maken? Menselijke makers hebben een belangrijke rol in deze fase: zonder hun input kan een AI-systeem niets genereren. Het systeem wordt namelijk getraind op basis van de data (in dit geval: de beelden) die aan het systeem worden gevoed. Door middel van machine learning (ML) kan het AI-systeem vervolgens zelf iets creëren op basis van wat het heeft geleerd en de ontvangen opdracht. Aan een AI-afbeelding liggen dus miljoenen, zo niet miljarden bestaande teksten of beelden ten grondslag. Uiteraard mogen deze trainingsdata niet illegaal zijn. Dat betekent bijvoorbeeld dat er rekening dient te worden gehouden met wetgeving op het gebied van privacy, of dat er geen kinderporno of terroristische content in de database mag worden opgenomen, maar ook dat rekening gehouden moet worden met het auteursrecht.

Want mag grootschalig gebruik van auteursrechtelijk beschermde data zomaar onder het huidige auteursrecht? Om dit te bepalen, moeten we kijken hoe het trainingsproces eruitziet. Hiervoor zijn de bepalingen in de Auteurswet over het zogenaamde tekst- en datamining (TDM) relevant. TDM is volgens de wet ‘een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.’ Op basis van een Europese richtlijn zijn in 2021 twee uitzonderingen op het auteursrecht ingevoerd over tekst- en datamining (TDM). Deze uitzonderingen in de wet maken duidelijk in welke gevallen tekst- en datamining van auteursrechtelijk beschermd werk is toegestaan.

Dat is allereerst wanneer dit wordt gedaan door onderzoeksorganisaties en cultureel erfgoedinstellingen voor wetenschappelijk onderzoek. Zij mogen op basis van deze uitzondering gebruikmaken van auteursrechtelijk beschermde werken voor TDM-doeleinden wanneer zij rechtmatige toegang tot deze werken hebben. Dit kan bijvoorbeeld al het geval zijn als iets openbaar toegankelijk is op het internet. De tweede uitzondering betreft gebruik voor andere doeleinden, waaronder commerciële doeleinden. Het verschil met de eerste bepaling, is dat rechthebbenden de mogelijkheid hebben om te ‘opt-outen’ van gebruik voor deze doeleinden. Wanneer door hen duidelijk is aangegeven dat het werk niet gebruikt mag worden voor tekst- en datamining, kan er door AI-ontwikkelaars geen beroep worden gedaan op deze uitzondering. De vraag is echter in hoeverre dit uitkomst biedt voor makers. Want hoe moet zo´n opt-out er nou precies uitzien? En hoe weet je of het platform jouw opt-out ook daadwerkelijk respecteert? Bovendien kan een opt-out eigenlijk alleen worden ingeroepen vóórdat AI wordt getraind: een AI-systeem kan iets eigenlijk niet ‘ontleren’. In veel gevallen zal een opt-out daarom te laat komen.

Met behulp van AI kunnen interessante nieuwe dingen worden gemaakt. Er zijn kunstenaars die erg geïnspireerd raken door de ontwikkelingen op dit gebied, en AI-tools als een verrijking van hun artistieke praktijk zien. Maar er zijn ook makers die hun werk liever niet in deze context gebruikt zien, in ieder geval niet als daar niets tegenover staat.

AI Act

Op het gebied van wetgeving probeert men een balans hiertussen te vinden. De Europese wetgever werkt aan de zogenaamde ‘AI Act’. Hierin worden hoog risico-toepassingen van AI aangewezen (denk daarbij aan analyse van biometrische gegevens of sociale kredietscores), en worden bepaalde zorgvuldigheids- en transparantienormen opgesteld voor deze systemen. Ook gaan er stemmen op dat generatieve AI-platforms inzicht zouden moeten geven in hun trainingsdata en zouden moeten voorkomen dat hun systeem illegale output genereert. Waarschijnlijk betekent dit dat er ook geen inbreukmakende output uit het systeem mag komen. Hoe zij dit zullen moeten doen, is nog niet duidelijk. De AI Act moet nog worden gefinaliseerd en het duurt nog even voordat deze van kracht zal zijn. Pictoright volgt deze ontwikkelingen op de voet, en is via de Europese belangenorganisatie EVA ook nauw betrokken bij het wetgevingsproces.

Wat kan er nu al?

Maar ook nu al kunnen er concrete stappen gezet worden. Zoals hierboven beschreven kun je als maker bijvoorbeeld zelf ‘opt-outen’ van commerciële tekst- en datamining. Er lijken op dit moment verschillende manieren te zijn om dit te doen, bijvoorbeeld met specifieke software of via een disclaimer op je website. Over deze opt-out mogelijkheid en wat te doen als je werk al ís gebruikt voor trainingsdoeleinden, kun je meer lezen in de FAQ op onze website. Pictoright is verder aan het onderzoeken of er ook in collectieve licentiecontracten standaard opt-out verzoeken kunnen worden opgenomen: in feite een verplichte collectieve AI opt-out voor alle bij Pictoright aangesloten makers. Ook wordt in samenwerking met de Europese koepelorganisatie onderzocht of er bijvoorbeeld vergoedingen kunnen worden gevraagd voor gebruik voor trainingsdoeleinden in de gevallen waar een opt-out geen zin (meer) heeft of niet gewenst is. Hoe dit precies gaat uitpakken is nog onduidelijk. De ontwikkelingen gaan snel, en zijn nog slecht te voorspellen. Het zal daarom voorlopig nog wel een relevant onderwerp blijven. Wil je graag op de hoogte blijven? Bekijk dan af en toe onze FAQ: deze zullen we blijven updaten met de nieuwste ontwikkelingen.

Vul hieronder de enquete in over auteursrecht en AI, en klik als je klaar bent onderaan op ‘VERSTUREN’. Bedankt!

Enquete Auteursrecht en AI

1. Wat is je leeftijd?
2. Binnen welke maakdiscipline ben je actief? [meerdere opties mogelijk]
3. Hoe ben je bij deze enquete terechtgekomen?
4. Hoe goed ben je op de hoogte van de recente ontwikkelingen op het gebied van generatieve AI? (AI-systemen die op basis van een opdracht geheel nieuwe content kunnen genereren, zoals maar niet beperkt tot ChatGPT, MidJourney, Dall-E).
5. Maak je gebruik van AI-programma's binnen je kunstpraktijk?
6. Heeft de ontwikkeling op het gebied van generatieve AI invloed op je kunstpraktijk?
7. Zo ja, welk effecten heeft AI zijn nu al op je kunstpraktijk? [meerdere opties mogelijk]
8. AI-systemen worden “getraind” op basis van gigantische hoeveelheden data. Hieronder bevinden zich ook grote hoeveelheden afbeeldingen van het internet, waaronder ook afbeeldingen die (nog) auteursrechtelijk beschermd zijn. Ben je hiervan op de hoogte?
9. Wat vind je ervan dat AI-systemen worden getraind op basis van grote hoeveelheden online beschikbaar (en mogelijk auteursrechtelijk beschermd) materiaal?
10. Als er een mogelijkheid zou zijn om actie te ondernemen tegen AI-ontwikkelaars met betrekking tot jouw werk dat online aanwezig is en mogelijk gebruikt wordt om AI te trainen, wat zou je dan willen doen?
11. Sommige AI-ontwikkelaars stellen een rechtenvoorbehoud (een zogenaamde “opt-out”) te zullen respecteren. Ben je hiermee bekend en zo ja, heb je hier al gebruik van gemaakt?
13. Sommige generatieve AI-programma’s kunnen een werk maken “in de stijl van” een beeldend kunstenaar. Wat vind je daarvan?
14. Zie je AI als een bedreiging of als een kans voor beeldend makers?
15. Wat zie je als de belangrijkste bedreigingen van AI binnen je praktijk? (kies max 3 opties)
16. Wat zie je als de belangrijkste voordelen van AI binnen je praktijk? (kies max 3 opties)
17. Waar maak jij je (als het over je vak gaat) op dit moment het meeste zorgen over in relatie tot AI? (kies max 2 opties)
Q&A

Auteursrecht en AI

Wat is de impact van recente ontwikkelingen in AI-technologie op het auteursrecht en de beeldsector?

In het AI-dossier spelen voor de beeldsector verschillende zaken. Deze dienen goed uit elkaar gehouden te worden, nu elke kwestie een andere benadering vereist, en mogelijk ook verschillende niveaus van urgentie heeft.

Allereerst zijn daar de vragen wat betreft de ‘output’ van AI: kunnen AI-creaties auteursrechtelijke bescherming genieten, of is dit voorbehouden aan het werk van menselijke makers? En kan AI-output inbreuk maken op de auteursrechten van menselijke makers? Het antwoord op deze vragen hangt waarschijnlijk sterk af van de omstandigheden, waaronder ook de manier waarop het AI-systeem wordt gebruikt en de eigen input van de gebruiker. Zie hierover verder in de FAQ meer.

Daarnaast is er de vraag wat de positie is van de makers wiens werk wordt gebruikt als trainingsdata voor AI-systemen, de zogenaamde ‘input’-kant. Zonder de input van menselijke makers kan een AI-systeem niets genereren: het systeem wordt immers getraind op basis van de data (in dit geval: de beelden) die aan het systeem worden gevoed, en door middel van machine learning creëert het AI-systeem vervolgens output op basis van wat het heeft geleerd en de ingevoerde opdracht. In dit proces vinden mogelijk auteursrechtelijk relevante handelingen plaats. Om te kijken of dit is toegestaan moeten we kijken naar de wet. Daarbinnen zijn de zogenaamde ‘TDM’-bepalingen mogelijk relevant. Voor het ‘trainen’ van het systeem is tekst- en datamining (TDM) namelijk heel belangrijk. TDM is volgens de wet “een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.” Op deze gegevens, die dus ook eventueel afbeeldingen kunnen zijn, kan auteursrecht rusten. In dat geval kan verwerking hiervan een inbreuk opleveren. Bovendien wordt er in die gevallen door de ontwikkelaar van het AI-systeem geprofiteerd van andermans werk, zonder dat deze mensen hier iets van terug zien. Door middel van de TDM-excepties heeft de Europese wetgever getracht een balans te vinden tussen de verschillende belangen. De vraag is echter of deze balans inderdaad is gevonden. Zie hierover verder in de FAQ meer.

Tot slot is daar de vraag van concurrentie: nemen AI-systemen het stokje op den duur over van de menselijke beeldmakers, illustratoren en fotografen? Zullen de menselijke beeldmakers worden weggeconcurreerd door de tijd- en kosten efficiënte AI tools? Pictoright en zijn partners van de Federatie Beeldrechten, waaronder BNO, NVJ/NVF, Dupho, BBK, BOK, Kunstenbond en Platform BK houden deze ontwikkelingen goed in de gaten. In concrete gevallen vangen wij soms al signalen op van situaties waarin sprake is van dat bepaalde opdrachten naar makers gaan die (enkel) AI-tools gebruiken, in plaats van naar makers die dit niet doen. Bovendien wordt AI steeds meer als aanvulling op regulier beeldmateriaal gebruikt en ingezet in de conceptontwikkelingsfase. Hoe dit zich in de toekomst zal ontwikkelen, en wat de impact hiervan op de sector zal zijn, is nog niet duidelijk.

Worden AI-creaties beschermd door het auteursrecht?

Over de auteursrechtelijke bescherming van werk gemaakt met behulp van of door AI-creaties wordt nog veel gediscussieerd. In de VS werd recent door de Copyright Office in eerste instantie toestemming gegeven tot het registreren van een werk dat was gemaakt met behulp van een AI-tool. Deze inschrijving bij de Copyright Office werd later na groot protest echter ingetrokken en was aanleiding voor de Copyright Office om Guidelines te ontwikkelen en een serie bijeenkomsten te organiseren.

In de EU wordt dezelfde discussie gevoerd. De consensus lijkt op het moment dat AI-systemen mógelijk auteursrechtelijk beschermde output kunnen produceren, indien door de gebruiker aan aanvullende voorwaarden wordt voldaan. Zélf kunnen AI-systemen geen auteursrechthebbende zijn: Artificial Intelligence is nog niet zo ver ontwikkeld dat het zelf een drager van rechten kan zijn. De ontwikkelaar van het AI-systeem zal in de meeste gevallen ook niet de auteursrechthebbende op de output zijn, maar mogelijk wel de rechthebbende op het werkingssysteem of de code achter de AI.

In sommige gevallen kan de gebruiker van een AI-systeem, degene die het systeem de opdracht geeft om iets te ontwikkelen, wél auteursrechtelijke bescherming verkrijgen over diens AI(-geassisteerde) creaties. Dat kan het geval zijn wanneer er voldoende creatieve keuzes worden gemaakt, bijvoorbeeld bij het kiezen van de trainingsdata (wanneer niet van een bestaand systeem met een vaste database gebruik wordt gemaakt) of van de instructies die aan het systeem worden gegeven. Denk hierbij aan een situatie waarin een persoon een concept ontwikkelt en daarvoor een heel originele ‘prompt’ (opdracht voor het systeem) invoert. Hierbij kan deze persoon mogelijk voldoende creatieve keuzes maken om voor bescherming in aanmerking te komen. In zulke gevallen wordt het AI-systeem in feite gebruikt als een soort ‘tool’, zoals je ook een kwast of bijvoorbeeld Photoshop gebruikt. Het zal echter in weinig gevallen voorkomen dat de ‘prompt’ alleen voldoende is voor bescherming. Wel kan bijvoorbeeld nog door voldoende creatieve nabewerking van de AI-output alsnog bescherming worden verkregen door de bewerker. Hoe dit bewijsrechtelijk echter in elkaar zou moeten zitten, daarover is nog discussie.

Indien een AI-creatie echter zonder relevante menselijke creatieve inbreng tot stand is gekomen, kan voor deze output geen beroep worden gedaan op het auteursrecht. Wil je meer weten over hoe verantwoord om te gaan met AI in je artistieke praktijk, dan kun je bijvoorbeeld kijken naar de White Paper van de BNO over dit onderwerp.

Maken AI-creaties waarin mijn naam in de prompt is genoemd (bijvoorbeeld: een afbeelding in de stijl van ‘artiest’), inbreuk op mijn auteursrecht?

In principe vallen kunststromingen of -stijlen niet onder de auteursrechtelijke bescherming: dat zou de artistieke ontwikkeling kunnen remmen. Stel je bijvoorbeeld voor dat één iemand de rechten op het ‘kubisme’ zich had kunnen toe-eigenen: dit had tot onwenselijke situaties geleid. Iemand mag dus iets maken in een bepaalde stijl, of dit nu met de hulp van AI is of niet.

Dit gaat echter niet op wanneer een werk ‘in de stijl van’ verder gaat dan enkel stijlimitatie, en er echt zogenaamde ‘auteursrechtelijk beschermde trekken’ zijn overgenomen, bijvoorbeeld door de overname van herkenbare auteursrechtelijk beschermde figuren van een bepaalde maker. De beoordeling hiervan is erg afhankelijk van de omstandigheden van het geval, en dient voor elk geval individueel beoordeeld te worden. Ook komt het af en toe voor dat het algoritme, ondanks dat het is getraind om originele output te genereren, herkenbaar specifieke trainingsdata reproduceert. In deze gevallen maakt de output mogelijk ook inbreuk op de auteursrechten van een maker.

Mag mijn werk gebruikt worden als trainingsdata voor een AI-systeem?

Uiteraard mag de trainingsdata waarmee een AI-systeem getraind wordt niet illegaal zijn. Dat betekent niet alleen dat er niet zonder toestemming persoonsgegevens mogen worden verwerkt, of dat er geen kinderporno of terroristische content in de database mag worden opgenomen, maar ook dat rekening gehouden dient te worden met het auteursrecht.

Er wordt wel gezegd dat wat AI doet, iets maken op basis van wat het zelf tot zich heeft genomen, erg lijkt op wat menselijke makers doen. In feite wordt de AI, net als een menselijke maker die inspiratie opdoet in diens omgeving, ‘geïnspireerd’ door wat het tot zich neemt. Toch is deze situatie heel anders. AI wordt niet geïnspireerd, maar verwerkt en dus reproduceert beelden als zijnde data, herstructureert deze, en gebruikt het dan op een andere manier. Dit zijn auteursrechtelijk relevante handelingen, in tegenstelling tot een menselijke maker die zich door diens omgeving laat inspireren tot het creëren van iets nieuws.

Om te kijken hoe dit auteursrechtelijk gezien beoordeeld moet worden moeten we terugvallen op de bestaande wetgeving. Daarbij kan gekeken worden naar bepaalde uitzonderingen op het auteursrecht, waaronder mogelijk de uitzondering voor ‘tijdelijke reproductie’, maar ook de uitzonderingen voor tekst- en datamining (TDM). In deze FAQ wordt gefocust op deze laatste bepalingen, omdat deze de meest concrete aanknopingspunten voor actie bieden. TDM is volgens de wet “een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.” Een dergelijke techniek wordt ook gebruikt voor het trainen van AI om bepaalde output te genereren. Deze uitzonderingen in de wet maken duidelijk in welke gevallen tekst- en datamining van auteursrechtelijk beschermd werk eventueel is toegestaan.

Dat is allereerst wanneer dit wordt gedaan door onderzoeksorganisaties en cultureel erfgoedinstellingen met het oog op wetenschappelijk onderzoek. Zij mogen op basis van deze uitzondering waarschijnlijk gebruik maken van auteursrechtelijk beschermde werken voor TDM-doeleinden (waaronder het trainen van experimentele AI), wanneer zij rechtmatige toegang hiertoe hebben. Zij mogen ook een database maken van hun trainingsdata, wanneer zij deze goed beschermen.

De tweede uitzondering ziet op gebruik voor andere doeleinden, waaronder commerciële doeleinden. Ook bij dit gebruik mag aan tekst- en datamining worden gedaan wanneer de gebruiker rechtmatige toegang heeft tot de auteursrechtelijk beschermde content, maar rechthebbenden hebben de mogelijk om te ‘opt-out’-en van gebruik voor deze doeleinden. Wanneer zij expliciet het auteursrecht voorbehouden en door hen dus duidelijk is aangegeven dat het werk niet gebruikt mag worden voor tekst- en datamining, kan er geen beroep worden gedaan op deze uitzondering. Bovendien mag in deze gevallen geen database van de trainingsdata worden aangelegd.

De vraag is echter in hoeverre deze ‘opt-out’ -mogelijkheid daadwerkelijk een uitkomst biedt voor makers en hen effectief de mogelijkheid geeft om hun eigen rechten te beheren. Allereerst is (nog) onduidelijk of een ‘opt-out’ wordt gerespecteerd en in welke vorm dit dient te gebeuren. Zeker wanneer de maker sociale media platforms gebruikt, heeft zij weinig controle over wat er met haar uploads gebeurt. Bovendien kan een opt-out eigenlijk alleen worden ingeroepen vóórdat AI met het ge-opt-oute werk is getraind: het lijkt erop dat een AI-systeem iets eigenlijk niet kan ‘ontleren’. Een AI-systeem kan alleen opnieuw getraind worden met data waar bepaalde werken uit zijn gehaald. Omdat dat veel geld, tijd en energie kost gebeurt dat hertrainen slechts sporadisch. Er wordt dus wel gezegd dat ‘het kwaad al is geschied’ wat betreft het werk dat tot op heden nog niet onder een opt-out is gepubliceerd. Momenteel zijn verschillende organisaties zich aan het beraden over wat hieraan te doen, en of bijvoorbeeld met een geldelijke vergoeding tegemoet gekomen kan worden aan deze makers.

Wat kan ik doen om te voorkomen dat mijn werk, dat is geplaatst op een door mij beheerde site, wordt gebruikt als trainingsdata voor een AI-systeem?

Zoals hierboven beschreven kun je als maker niet voorkomen dat je werk wordt ‘gescraped’ van het internet, en gebruikt voor TDM-doeleinden, wanneer dit wordt gedaan door non-profit wetenschappelijk onderzoeksorganisaties en cultureel erfgoedinstellingen. De Auteurswet biedt wél de mogelijkheid om te ‘opt-out’-en van commerciële tekst- en datamining. Dit moet echter wel op een manier worden gedaan die leesbaar is voor de TDM-software (‘machine-leesbaar’). Hoe dit precies gedaan dient te worden is nog onduidelijk: enige coördinatie op dit gebied wordt op den duur vanuit Europa wel verwacht. Tot die tijd moeten we het doen met wat er nu voor handen is. Pictoright kan de werkbaarheid en juridische status van onderstaande methoden niet kan garanderen. Maar ze helpen je wellicht op weg om, wanneer je dat wilt, de ‘opt-out’ te implementeren in je artistieke praktijk.

Er zijn waarschijnlijk verschillende manieren om dit te doen. Allereerst kan dit bijvoorbeeld door het gebruiken van het zogenaamde ‘robots.txt-protocol’ op je website. LAION, de database achter Stable Diffusion AI, heeft aangegeven dat diens crawler het robots.txt-protocol respecteert. Het risico hiervan is echter dat je webpagina ook niet meer vindbaar is via Google, wat eventueel slecht zou kunnen uitpakken voor je online aanwezigheid als maker. Daarom zijn verschillende initiatieven opgezet om een protocol te ontwikkelen dat meer specifiek gericht is om het scrapen voor TDM-doeleinden te voorkomen. Deze kunnen geïmplementeerd worden in je eigen website. Kijk bijvoorbeeld eens naar het W3C TDM protocol, of naar het door Spawning ontwikkelde ai.txt-protocol. Een andere optie is om een soort ‘mantel’ over je werk heen te leggen, die het moeilijker maakt voor AI om je werk te reproduceren. Deze optie wordt bijvoorbeeld aangeboden door Glaze. Online kun je meer vinden over hoe dit alles technisch in elkaar zit.

Waar mogelijk kun je daarnaast gebruik maken van vaste instellingen op platforms waar veel beeldend werk wordt gedeeld. Zo hebben ArtStation en DeviantArt inmiddels een ‘tag’ ontwikkeld, de zogenaamde NoAI of NoImageAI- tags, die je kunt selecteren bij het uploaden van je werk op deze platforms. Hiermee geef je aan dat je dit specifieke werk uitzondert van de mogelijkheid om het voor TDM te gebruiken. Dit wordt geïntegreerd in de HTML, en is leesbaar voor crawling software.

Tot slot hanteren sommige makers ook een geschreven disclaimer op de website, bijvoorbeeld in de algemene voorwaarden of onderaan de eigen webpagina. Hoewel onduidelijk is of dit voldoende machine-leesbaar is of volledig sluitend voor de (Nederlandse) juridische situatie, is dit een makkelijke en toegankelijke manier om te opt-outen. Denk er hierbij aan dat het het beste is om dit in het Engels te doen, vanwege de veelal Engelstalige AI-producenten, en kijk ter illustratie bijvoorbeeld eens naar het voorbehoud dat door de Authors Guild wordt gesuggereerd hiervoor.

In de toekomst komt er naar verwachting een standaardprocedure voor een gestandaardiseerde opt-out procedure, die door alle AI-ontwikkelaars geaccepteerd zal worden. Dit zal mogelijk op EU-niveau gecoördineerd worden. De vraag is echter of een dergelijke procedure voldoende is om daadwerkelijk effectief gebruik te maken van de mogelijkheid tot ‘opt-out’, nu de huidige opties vooral toezien op uploads waar de maker zélf controle over heeft, bijvoorbeeld op de eigen website of social media pagina. Of een opt-out ook gaat kunnen toezien op illegale uploads, of dat dit op collectief niveau of per oeuvre/maker gedaan gaat kunnen worden, is nu nog onduidelijk.

Wat doet Pictoright om te voorkomen dat mijn werk wordt gebruikt als trainingsdata voor een AI-systeem?

Pictoright is, in samenwerking met zijn partners van de Federatie Beeldrechten, waaronder BNO, NVJ/NVF, Dupho, BBK, BOK, Kunstenbond en Platform BK, bezig zich verder te verdiepen in wat zij concreet in hun dagelijkse praktijk kunnen doen om aan de zorgen van makers omtrent AI tegemoet te komen. Dit onderzoek richt zich bijvoorbeeld op de mogelijkheid om in licentiecontracten bepalingen op te nemen over de beschikbaarheid van werken voor TDM-doeleinden: in feite een verplichte AI opt-out voor alle licentiepartners. Maar ook op andere vlakken wordt gekeken naar welke acties genomen moeten worden. Zo zijn wij actief betrokken bij de inspanningen van de Europese koepelorganisatie EVA om aanvullende regels betreffende (beeld)genererende AI op te laten nemen in de Europese AI Act. Het statement van EVA over AI is op de website te vinden.

Wat kan ik doen als mijn werk al in een AI-database is opgenomen?

Allereerst zul je moeten vaststellen of dit het geval is: is je werk opgenomen in een AI-database? Dit kun je controleren door bijvoorbeeld gebruik te maken van de website: Have I Been Trained? Met deze tool kun je controleren of jouw werk is opgenomen in LAION, de Stable Diffusion V3 database. Dit is een Open Software database, waar meerdere AI-ontwikkelaars gebruik van maken. Je dekt hiermee dus een groot deel van de beeld-AI tools.

Om te voorkomen dat je werk wordt meegenomen in een volgende trainingsronde van Stable Diffusion kun je via Have I Been Trained? vervolgens een opt-out verzoek doen via Spawning. Hiermee vraag je dus of jouw werk verwijderd kan worden uit deze specifieke database. Hoewel Stability AI stelt deze opt-out verzoeken te zullen honoreren, is de juridische status hiervan tot op heden onduidelijk. Het beste lijkt om te voorkomen dat werk in de database belandt, door bij het uploaden van je werk al een opt-out verzoek op te nemen. Zie hierover meer onder Wat kan ik als maker doen om te voorkomen dat mijn werk, dat is geplaatst op een door mij beheerde site, wordt gebruikt als trainingsdata voor een AI-systeem?’.

Wat zal de AI Act kunnen betekenen voor beeldmakers?

Binnen de Europese wetgevingsinstanties wordt hard gewerkt aan regelgeving die van toepassing zal zijn op kunstmatige intelligentie: de zogenaamde ‘AI Act’. Begin mei is er in het Europees parlement weer een stap gezet naar een akkoord hierover, waarin ook specifiek de beeld genererende AI geadresseerd wordt. In de tweede helft van dit jaar zal er binnen Europa verder gewerkt worden aan de definitieve tekst. Pictoright is via de Europese koepelorganisatie EVA nauw betrokken bij dit proces. Zie bijvoorbeeld het juridische paper dat EVA hierover heeft gestuurd naar de Europese instanties.

In de AI Act worden hoog risico-toepassingen van AI aangewezen (denk daarbij aan analyse van biometrische gegevens of sociale kredietscores). In de laatste versie van de Act zijn ook voorstellen opgenomen die specifieke normen opleggen aan “generatieve AI” (de zogenaamde foundation models). Ook deze systemen moeten aan bepaalde zorgvuldigheids- en transparantienormen voldoen. Daarnaast dienen de ontwikkelaars van deze modellen door middel van een ‘samenvatting’ inzicht te geven in hun trainingsdata en moeten zij voorkomen dat hun systeem illegale output genereert. Waarschijnlijk betekent dit dat ook geen inbreukmakende output uit het systeem mag komen. Hoe de AI platforms dit precies moeten doen of hoe zo’n samenvatting eruit zal moeten zien, is nog niet duidelijk. De AI Act wordt nog gefinaliseerd en het duurt nog even voordat deze van kracht zal zijn.