Auteursrecht en AI
De laatste tijd is er veel te doen over kunst en Artificial Intelligence (AI). Pictoright volgt alle ontwikkelingen op de voet en krijgt veel berichten van bezorgde makers. Hoewel AI voor makers ook kansen kan bieden, begrijpt Pictoright de ontstane onrust. De huidige wetgeving beschermt makers niet optimaal tegen gebruik van hun werk voor commerciële AI doeleinden. Dat is zorgelijk. Pictoright zal zich daarom samen met de organisaties uit de Federatie Beeldrechten en haar Europese partners waar mogelijk en noodzakelijk de komende tijd inzetten voor een verbetering van de auteursrechtelijke positie van makers in commerciële AI processen.
We hebben de meest gestelde vragen en de huidige stand van zaken verzameld in dit dossier. Uiteraard zullen we ervoor zorgen dat het regelmatig wordt geactualiseerd.
Wie traint de Robot kunstenaar?
De razendsnelle ontwikkelingen op het gebied van kunstmatige intelligentie (AI) houden de gemoederen flink bezig. Nu deze technologie ineens zo toegankelijk is geworden voor een breed publiek, worden we geconfronteerd met de onstuitbare opmars van AI en de ingrijpende gevolgen daarvan. In dit artikel een juridische update voor beeldmakers.
Wanneer we het hier over AI hebben gaat het over de zogenaamde ‘generatieve AI’: algoritmes die op basis van een (simpele) tekstopdracht zelf iets nieuws kunnen genereren. Daaronder valt bijvoorbeeld ChatGPT, die op basis van een geschreven opdracht een tekst kan produceren (text-to-text), maar ook de AI-systemen die zo’n opdracht – een ‘prompt’ – kunnen omzetten in een beeld (text-to-image). De meest bekende voorbeelden hiervan zijn Dall-e, Midjourney en Stability AI. Deze vrij toegankelijke online AI-systemen kunnen op grote schaal worden gebruikt voor het creëren van afbeeldingen. Het is dan ook begrijpelijk dat dit tot onrust leidt onder beeldmakers.
De mens is al heel lang bang voor de concurrentie van de machine: er bestaat ontzettend veel science fiction waarin de robots het uiteindelijk winnen van de mens. Maar hoe realistisch is dit horrorscenario, en hoe zit dit voor de beeldmaker? Nemen AI-systemen op den duur het stokje over van de menselijke beeldmakers, illustratoren en fotografen? Begrijpelijke vragen waar nu nog lastig antwoord op te geven valt. Maar dat AI een rol zal spelen binnen de beeldsector lijkt onvermijdelijk.
Voor Pictoright dus reden om de ontwikkelingen scherp in de gaten te houden. En hoewel ook op auteursrechtelijk gebied nog veel onduidelijk is over de status van AI, beginnen de juridische contouren al wat duidelijker te worden. Voor een auteursrechtelijke analyse moeten we eerst goed in het werkingsproces van AI duiken. Belangrijk is om daarbij onderscheid te maken tussen twee auteursrechtelijk relevante ‘fases’: de input-fase en de output-fase.
Bitesize AI
De output-fase betreft het ‘product’ van de AI, en draait voornamelijk om de vraag of AI-creaties auteursrechtelijke bescherming kunnen genieten, of dat dit is voorbehouden aan het werk van menselijke makers. Over de auteursrechtelijke bescherming van teksten en afbeeldingen gemaakt met behulp van AI wordt veel gediscussieerd.
De consensus lijkt op het moment dat de output van AI-systemen mogelijk auteursrechtelijk beschermd kan zijn, maar dat hier wel aanvullende voorwaarden aan verbonden zijn. Zélf kunnen AI-systemen in principe geen auteursrechthebbende zijn: Artificial Intelligence is nog niet zo ver ontwikkeld dat het systeem zelf een drager van rechten kan zijn. De ontwikkelaar van het AI-systeem zal in de meeste gevallen ook niet de auteursrechthebbende op de output zijn, maar mogelijk wel de rechthebbende op het werkingssysteem of de computercode achter de AI. De enige mogelijk relevante partij die overblijft, is de gebruiker van een AI-systeem: degene die het systeem de opdracht geeft om iets te ontwikkelen. Deze kan eventueel auteursrecht hebben op een AI-creatie als er voldoende creatieve keuzes worden gemaakt, bijvoorbeeld bij het selecteren van de trainingsdata of binnen de instructies die aan het systeem worden gegeven. Denk hierbij aan een situatie waarin een persoon een concept ontwikkelt en daarvoor een heel originele ‘prompt’ invoert. In zulke gevallen wordt het AI-systeem in feite gebruikt als een soort tool, zoals je ook een kwast gebruikt. Datzelfde geldt bijvoorbeeld als sprake is van uitgebreide nabewerking van de AI-output. Als degene die de prompts invoert of het beeld nabewerkt voldoende creatieve arbeid verricht, kan er alsnog auteursrechtelijke bescherming ontstaan. Hoe en óf een en ander vervolgens moet worden bewezen, staat nog ter discussie.
Een andere belangrijke vraag is of de AI-output inbreuk kan maken op het auteursrecht van een menselijke maker, bijvoorbeeld doordat iemand een werk ‘in de stijl van’ genereert. Daarbij moet voorop worden gesteld dat kunststromingen of -stijlen niet onder de auteursrechtelijke bescherming vallen, omdat dit de artistieke ontwikkeling zou kunnen remmen. Iemand mag dus iets maken in een specifieke stijl. Sommigen zijn echter van mening dat de standaardregel dat stijl niet beschermd is, in zijn geheel niet opgaat in de specifieke context van AI. Dat komt omdat het met AI zo makkelijk is gemaakt om iets in de stijl van een ander te maken, dat er aanvullende redenen zijn om ‘stijlimitatie’ onrechtmatig te laten zijn. Hoe dit zich verder ontwikkelt, daar zal in de toekomst hopelijk meer duidelijkheid over komen.
Een AI-productie in de stijl van een specifieke maker kan bovendien inbreuk maken, wanneer zogenaamde ‘auteursrechtelijk beschermde trekken’ zijn overgenomen. Dit kan bijvoorbeeld het geval zijn als niet alleen in heel abstracte zin de stijl wordt geïmiteerd, maar echt bepaalde auteursrechtelijk beschermde elementen uit het werk van deze maker worden overgenomen. De beoordeling hiervan is sterk afhankelijk van de omstandigheden, en dient per geval individueel beoordeeld te worden.
Om een werk in een bepaalde stijl te maken moet de AI natuurlijk wel bekend zijn met deze stijl. Dit gebeurt in de zogenaamde input-fase. De vraag die in deze fase centraal staat is: wat gaat er eigenlijk de AI ‘in’ en hoe wordt het systeem getraind om nieuwe dingen te maken? Menselijke makers hebben een belangrijke rol in deze fase: zonder hun input kan een AI-systeem niets genereren. Het systeem wordt namelijk getraind op basis van de data (in dit geval: de beelden) die aan het systeem worden gevoed. Door middel van machine learning (ML) kan het AI-systeem vervolgens zelf iets creëren op basis van wat het heeft geleerd en de ontvangen opdracht. Aan een AI-afbeelding liggen dus miljoenen, zo niet miljarden bestaande teksten of beelden ten grondslag. Uiteraard mogen deze trainingsdata niet illegaal zijn. Dat betekent bijvoorbeeld dat er rekening dient te worden gehouden met wetgeving op het gebied van privacy, of dat er geen kinderporno of terroristische content in de database mag worden opgenomen, maar ook dat rekening gehouden moet worden met het auteursrecht.
Want mag grootschalig gebruik van auteursrechtelijk beschermde data zomaar onder het huidige auteursrecht? Om dit te bepalen, moeten we kijken hoe het trainingsproces eruitziet. Hiervoor zijn de bepalingen in de Auteurswet over het zogenaamde tekst- en datamining (TDM) relevant. TDM is volgens de wet ‘een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.’ Op basis van een Europese richtlijn zijn in 2021 twee uitzonderingen op het auteursrecht ingevoerd over tekst- en datamining (TDM). Deze uitzonderingen in de wet maken duidelijk in welke gevallen tekst- en datamining van auteursrechtelijk beschermd werk is toegestaan.
Dat is allereerst wanneer dit wordt gedaan door onderzoeksorganisaties en cultureel erfgoedinstellingen voor wetenschappelijk onderzoek. Zij mogen op basis van deze uitzondering gebruikmaken van auteursrechtelijk beschermde werken voor TDM-doeleinden wanneer zij rechtmatige toegang tot deze werken hebben. Dit kan bijvoorbeeld al het geval zijn als iets openbaar toegankelijk is op het internet. De tweede uitzondering betreft gebruik voor andere doeleinden, waaronder commerciële doeleinden. Het verschil met de eerste bepaling, is dat rechthebbenden de mogelijkheid hebben om te ‘opt-outen’ van gebruik voor deze doeleinden. Wanneer door hen duidelijk is aangegeven dat het werk niet gebruikt mag worden voor tekst- en datamining, kan er door AI-ontwikkelaars geen beroep worden gedaan op deze uitzondering. De vraag is echter in hoeverre dit uitkomst biedt voor makers. Want hoe moet zo´n opt-out er nou precies uitzien? En hoe weet je of het platform jouw opt-out ook daadwerkelijk respecteert? Bovendien kan een opt-out eigenlijk alleen worden ingeroepen vóórdat AI wordt getraind: een AI-systeem kan iets eigenlijk niet ‘ontleren’. In veel gevallen zal een opt-out daarom te laat komen.
COLLECTIEVE OPT-OUT PICTORIGHT AANGESLOTENEN
Pictoright maakt gebruik van de mogelijkheid om een rechtenvoorbehoud te maken in de zin van artikel 15o Auteurswet en artikel 4 DSM-richtlijn. Pictoright is van mening dat voor tekst- en datamining of het anderszins gebruiken van werken uit het repertoire van Pictoright door entiteiten die tools voor kunstmatige intelligentie ontwikkelen voor niet-wetenschappelijke doeleinden, voorafgaande toestemming nodig is.
Pictoright heeft zich de afgelopen tijd beraden op een strategie ten aanzien van generatieve kunstmatige intelligentie, mede op basis van het onderzoek dat zij eind 2023 onder haar aangeslotenen heeft gedaan en waarvan de resultaten nog gepubliceerd zullen worden. Pictoright is niet van plan zich te verzetten tegen de ontwikkeling van kunstmatige intelligentie. Kunstmatige intelligentie biedt creatieve mogelijkheden voor beeldmakers, die het gebruiken als een nieuw hulpmiddel bij hun werk. Voor de door Pictoright vertegenwoordigde beeldmakers is het echter essentieel om controle te houden over hun werk en een eerlijke vergoeding te kunnen ontvangen voor het gebruik van hun werk voor AI-trainingsdoeleinden. Het uitoefenen van een collectieve opt-out moet beeldmakers in staat stellen om een dergelijke vergoeding mogelijk op collectief niveau tot stand te brengen. Met deze collectieve opt-out wil Pictoright dus bijdragen aan een duurzaam en deugdzaam evenwicht tussen de rechten van de makers die Pictoright vertegenwoordigt en de ontwikkelingsambities van de spelers op het gebied van kunstmatige intelligentie.
“Pictoright behoudt namens de beeldmakers van wie zij de relevante auteursrechten uitoefent nadrukkelijk het recht voor om de door deze makers vervaardigde auteursrechtelijk beschermde werken te verveelvoudigen of anderszins te gebruiken voor doeleinden die te maken hebben met het trainen van kunstmatige intelligentie, waaronder maar niet beperkt tot (commerciële) tekst- en datamining in de zin van artikel 4 van de DSM-richtlijn en artikel 15o Auteurswet.
Pictoright, on behalf of the visual creators whose relevant intellectual property rights are managed by her, expressly reserves the rights to reproduce and/or otherwise use the copyright protected works created by these creators, in any manner for purposes of training artificial intelligence, including but not limited to (commercial) text- and datamining in the sense of article 4 of the CDSM directive and article 15o of the Dutch Copyright Act.”
In de periode december 2023 – januari 2024 heeft Pictoright onder haar aangeslotenen een enquête uitgezet over het gebruik van Artificial Intelligence en de eventuele impact van de ontwikkelingen op dit gebied. Pictoright wilde hiermee een beeld krijgen van het sentiment onder beeldmakers om het toekomstige handelen hierop eventueel aan te kunnen passen. Hieronder zullen de resultaten kort worden gepresenteerd, evenals de conclusies die Pictoright voor haar beleid hieraan verbindt.
Deelnemers
In totaal hebben 963 respondenten de enquête ingevuld. Het grootste deel hiervan (93%) was bij de enquete terechtgekomen via een mailing van Pictoright, waardoor we dus aan kunnen nemen dat het grootste deel aangesloten is bij Pictoright en dus redelijk representatief is voor de Pictoright ‘achterban’. De respondenten zijn voornamelijk fotografen (30%), gevolgd door illustratoren (22%), schilders (15%) en grafisch ontwerpers (9%). Een aanzienlijk deel (zo’n 78%) van de respondenten aan ‘redelijk’ tot ‘goed’ op de hoogte te zijn van de ontwikkelingen rond AI, of het zelfs al actief te gebruiken. Wij zien de antwoorden daarom als representatief.
AI en de praktijk
De meeste van de respondenten (69%) maken nog geen gebruik van AI-programma’s binnen hun kunstpraktijk, maar een deel ervan heeft het al wel ingezet. Zo geven fotografen en grafisch ontwerpers vaker dan andere disciplines aan er wél gebruik van te maken, bijvoorbeeld van de AI die is geïntegreerd in Adobe Photoshop (Firefly). Men vermoedt wél dat de eigen kunstpraktijk zal veranderen. Zo’n 38% zegt nu nog geen effecten op hun praktijk te zien, maar dit wel in de toekomst te verwachten.
Of deze veranderingen positief of negatief zijn, dat weten de meeste respondenten nog niet. 49% antwoordt neutraal op de vraag of zij AI als een bedreiging zien. Net iets minder makers (39%) zien het daarentegen wél als een bedreiging. Verhoudingsgewijs zien vooral illustratoren AI als een bedreiging voor beeldmakers. Als belangrijkste bedreigingen zien makers problemen rond intellectuele eigendom (32%), de mogelijkheid dat klanten minder zullen gaan betalen of eerder naar AI zullen grijpen (25%), en ethische implicaties als vooringenomenheid en privacyschending in de data (20%). Men is over het algemeen ook negatief over de mogelijkheid om middels AI een productie te kunnen maken “in de stijl van” een andere beeldend maker. De belangrijkste redenen hiervoor zijn de parasiterende aard hiervan (46%) en het mogelijke verwarringsgevaar (28%). Op de vraag of er ook mogelijke voordelen zijn, zegt 36% die niet te zien. Anderen zien AI daarentegen (ook) als een mogelijkheid om bepaalde processen efficiënter te maken (34%) en misschien meer tijd beschikbaar te krijgen voor experiment (15%).
Auteursrechtelijk beschermd materiaal als trainingsmateriaal
Een aanzienlijk deel van de respondenten geeft dus aan problemen rond intellectuele eigendom als de belangrijkste bedreiging van AI te zien. Bovendien vindt 69% van de makers die de enquête hebben ingevuld, het negatief dat er auteursrechtelijk beschermd materiaal zonder toestemming wordt gebruikt voor het trainen van AI. Een kleiner deel is hierover neutraal (11%), en slechts 5% vindt het zelfs goed dat dit gebeurt, omdat het materiaal toch al online staat (5%).
Ondanks dat een groot deel van de respondenten aangeeft negatief te zijn over het gebruik van auteursrechtelijk beschermd materiaal voor trainingsdoeleinden, lijkt het lastig voor hen om hier gevolg aan te geven. 77% geeft aan überhaupt niet bekend te zijn met de mogelijkheid tot het maken van een rechtenvoorbehoud in de zin van art. 15o Auteurswet. 19% is hier wel mee bekend, maar heeft er nog geen gebruik van gemaakt, en slechts 3% had ten tijde van de enquête al op een bepaalde manier een opt-out gedaan. Dat staat niet in verhouding tot het deel dat het negatief vindt dat auteursrechtelijk beschermd materiaal zonder toestemming wordt gebruikt.
Een aanzienlijk deel van de makers (zo’n 76%) die de enquête hebben ingevuld wil daarentegen wel actie ondernemen. Van deze makers wil het grootste deel (49% van de respondenten) dit doen door (Pictoright te laten) vragen om een vergoeding voor gebruik voor trainingsdoeleinden. Anderen voorkomen liever dat hun werk in een trainingsdatabase terechtkomt door middel van een rechtenvoorbehoud (19%) of wil zelfs AI-ontwikkelingen op dit gebied verbieden (8%).
Tijd voor een vergoedingsrecht?
Samenvattend kan wel gezegd worden dat een groot deel van de Pictoright achterban zich zorgen maakt over AI, ook waar het gaat om auteursrecht. En hoewel zij zich negatief uiten over het zonder toestemming gebruiken van auteursrechtelijk beschermd materiaal voor trainingsdoeleinden, weten nog maar weinig makers hun weg te vinden naar de opt-out. Daarom zal Pictoright zich op de korte termijn inzetten om aan de hand van het huidige wettelijke kader de belangen van beeldmakers zo goed mogelijk te beschermen, onder meer door het doen van collectieve opt-out namens hen.
Het grootste deel van de respondenten geeft echter aan dat het maken van een rechtenvoorbehoud niet de oplossing is die voor hen de hoogste prioriteit heeft. 49% van hen geeft aan het belangrijk te vinden dat Pictoright namens hen een vergoeding gaat vragen. Dit werd in de wetenschappelijke literatuur ook al meermaals aangedragen als een geschikte oplossing, die een juiste balans vindt tussen het belang van de maker en het maatschappelijk belang van de ontwikkelingen op AI gebied. Want zoals ook uit deze enquête blijkt, zijn makers over het algemeen niet finaal gekant tégen AI en zien sommigen ook voordelen voor hun artistieke praktijk. Maar zij willen wél graag dat dit op een eerlijke manier gaat. Pictoright zet zich samen met haar partners van de Federatie Beeldrechten en de Europese koepelorganisatie EVA in voor nieuwe regels die beter tegemoetkomen aan de wensen en zorgen van beeldmakers op het gebied van kunstmatige intelligentie.
De volledige resultaten zijn hier te vinden: Uitslag enquête auteursrecht en AI
Auteursrecht en AI
Wat is de impact van recente ontwikkelingen in AI-technologie op het auteursrecht en de beeldsector?
In het AI-dossier spelen voor de beeldsector verschillende zaken. Deze dienen goed uit elkaar gehouden te worden, nu elke kwestie een andere benadering vereist, en mogelijk ook verschillende niveaus van urgentie heeft.
Allereerst zijn daar de vragen wat betreft de ‘output’ van AI: kunnen AI-creaties auteursrechtelijke bescherming genieten, of is dit voorbehouden aan het werk van menselijke makers? En kan AI-output inbreuk maken op de auteursrechten van menselijke makers? Het antwoord op deze vragen hangt waarschijnlijk sterk af van de omstandigheden, waaronder ook de manier waarop het AI-systeem wordt gebruikt en de eigen input van de gebruiker. Zie hierover verder in de FAQ meer.
Daarnaast is er de vraag wat de positie is van de makers wiens werk wordt gebruikt als trainingsdata voor AI-systemen, de zogenaamde ‘input’-kant. Zonder de input van menselijke makers kan een AI-systeem niets genereren: het systeem wordt immers getraind op basis van de data (in dit geval: de beelden) die aan het systeem worden gevoed, en door middel van machine learning creëert het AI-systeem vervolgens output op basis van wat het heeft geleerd en de ingevoerde opdracht. In dit proces vinden mogelijk auteursrechtelijk relevante handelingen plaats. Om te kijken of dit is toegestaan moeten we kijken naar de wet. Daarbinnen zijn de zogenaamde ‘TDM’-bepalingen waarschijnlijk relevant. Voor het ‘trainen’ van het systeem is tekst- en datamining (TDM) namelijk heel belangrijk. TDM is volgens de wet “een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.” Op deze gegevens, die dus ook eventueel afbeeldingen kunnen zijn, kan auteursrecht rusten. In dat geval kan verwerking hiervan een inbreuk opleveren. Bovendien wordt er in die gevallen door de ontwikkelaar van het AI-systeem geprofiteerd van andermans werk, zonder dat deze mensen hier iets van terug zien. Door middel van de TDM-excepties heeft de Europese wetgever getracht een balans te vinden tussen de verschillende belangen. De vraag is echter of deze balans inderdaad is gevonden. Zie hierover verder in de FAQ meer.
Tot slot is daar de vraag van concurrentie: nemen AI-systemen het stokje op den duur over van de menselijke beeldmakers, illustratoren en fotografen? Zullen de menselijke beeldmakers worden weggeconcurreerd door de tijd- en kosten efficiënte AI tools? Pictoright en zijn partners van de Federatie Beeldrechten, waaronder BNO, NVJ/NVF, Dupho, BBK, BOK, Kunstenbond en Platform BK houden deze ontwikkelingen goed in de gaten. In concrete gevallen vangen wij soms al signalen op van situaties waarin sprake is van dat bepaalde opdrachten naar makers gaan die (enkel) AI-tools gebruiken, in plaats van naar makers die dit niet doen. Bovendien wordt AI steeds meer als aanvulling op regulier beeldmateriaal gebruikt en ingezet in de conceptontwikkelingsfase. Hoe dit zich in de toekomst zal ontwikkelen, en wat de impact hiervan op de sector zal zijn, is nog niet duidelijk.
Worden AI-creaties beschermd door het auteursrecht?
Over de auteursrechtelijke bescherming van werk gemaakt met behulp van of door AI wordt nog veel gediscussieerd.
De consensus in Europa lijkt op het moment dat AI-systemen mógelijk auteursrechtelijk beschermde output kunnen produceren, indien door de gebruiker aan aanvullende voorwaarden wordt voldaan. Zélf kunnen AI-systemen geen auteursrechthebbende zijn: Artificial Intelligence is nog niet zo ver ontwikkeld dat het zelf een drager van rechten kan zijn. De ontwikkelaar van het AI-systeem zal in de meeste gevallen ook niet de auteursrechthebbende op de output zijn, maar mogelijk wel de rechthebbende op het werkingssysteem of de code achter de AI.
In sommige gevallen kan de gebruiker van een AI-systeem, degene die het systeem de opdracht geeft om iets te ontwikkelen, wél auteursrechtelijke bescherming verkrijgen over diens AI(-geassisteerde) creaties. Dat kan het geval zijn wanneer er voldoende creatieve keuzes worden gemaakt, bijvoorbeeld bij het kiezen van de trainingsdata (wanneer niet van een bestaand systeem met een vaste database gebruik wordt gemaakt) of van de instructies die aan het systeem worden gegeven. Denk hierbij aan een situatie waarin een persoon een concept ontwikkelt en daarvoor een heel originele ‘prompt’ (opdracht voor het systeem) invoert. Hierbij kan deze persoon mogelijk voldoende creatieve keuzes maken om voor bescherming in aanmerking te komen. In zulke gevallen wordt het AI-systeem in feite gebruikt als een soort ‘tool’, zoals je ook een kwast of bijvoorbeeld Photoshop gebruikt. Het zal echter in weinig gevallen voorkomen dat de ‘prompt’ alleen voldoende is voor bescherming. Daarvoor is heel wat nodig. Wel kan bijvoorbeeld nog door voldoende creatieve nabewerking van de AI-output alsnog bescherming worden verkregen door de bewerker. Hoe dit bewijsrechtelijk echter in elkaar zou moeten zitten, daarover is nog discussie. Als je met AI werkt lijkt het op dit moment in ieder geval verstandig om jouw creatieve proces goed vast te leggen en te documenteren.
Indien een AI-creatie echter zonder relevante menselijke creatieve inbreng tot stand is gekomen, kan voor deze output geen beroep worden gedaan op het auteursrecht.
Wil je meer weten over hoe verantwoord om te gaan met AI in je artistieke praktijk, dan kun je bijvoorbeeld kijken naar de White Paper van de BNO over dit onderwerp.
Maken AI-creaties waarin mijn naam in de prompt is genoemd (bijvoorbeeld: een afbeelding in de stijl van ‘artiest’), inbreuk op mijn auteursrecht?
In principe vallen kunststromingen of -stijlen niet onder de auteursrechtelijke bescherming: dat zou de artistieke ontwikkeling kunnen remmen. Stel je bijvoorbeeld voor dat één iemand de rechten op het ‘kubisme’ zich had kunnen toe-eigenen: dit had tot onwenselijke situaties geleid. Iemand mag dus iets maken in een bepaalde stijl, of dit nu met de hulp van AI is of niet.
Dit gaat echter niet op wanneer een werk ‘in de stijl van’ verder gaat dan enkel stijlimitatie, en er echt zogenaamde ‘auteursrechtelijk beschermde trekken’ zijn overgenomen, bijvoorbeeld door de overname van herkenbare auteursrechtelijk beschermde figuren van een bepaalde maker. De beoordeling hiervan is erg afhankelijk van de omstandigheden van het geval, en dient voor elk geval individueel beoordeeld te worden. Ook komt het af en toe voor dat het algoritme, ondanks dat het is getraind om originele output te genereren, herkenbaar specifieke trainingsdata reproduceert. In deze gevallen maakt de output mogelijk ook inbreuk op de auteursrechten van een maker.
Daarnaast zijn sommigen van mening dat de standaardregel dat stijl niet beschermd is, in zijn geheel niet opgaat in de specifieke context van AI. Dat komt omdat het met AI zo makkelijk is gemaakt om iets in de stijl van een ander te maken, dat er aanvullende redenen zijn om ‘stijlimitatie’ onrechtmatig te laten zijn.
Mag mijn werk gebruikt worden als trainingsdata voor een AI-systeem?
Uiteraard mag de trainingsdata waarmee een AI-systeem getraind wordt niet illegaal zijn. Dat betekent niet alleen dat er niet zonder toestemming persoonsgegevens mogen worden verwerkt, of dat er geen kinderporno of terroristische content in de database mag worden opgenomen, maar ook dat rekening gehouden dient te worden met het auteursrecht.
Er wordt wel gezegd dat wat AI doet, iets maken op basis van wat het zelf tot zich heeft genomen, erg lijkt op wat menselijke makers doen. In feite wordt de AI, net als een menselijke maker die inspiratie opdoet in diens omgeving, ‘geïnspireerd’ door wat het tot zich neemt. Toch is deze situatie heel anders. AI wordt niet geïnspireerd, maar verwerkt en dus reproduceert beelden als zijnde data, herstructureert deze, en gebruikt het dan op een andere manier. Dit zijn auteursrechtelijk relevante handelingen, in tegenstelling tot een menselijke maker die zich door diens omgeving laat inspireren tot het creëren van iets nieuws.
Om te kijken hoe dit auteursrechtelijk gezien beoordeeld moet worden moeten we terugvallen op de bestaande wetgeving. Daarbij kan gekeken worden naar bepaalde uitzonderingen op het auteursrecht, waaronder mogelijk de uitzondering voor ‘tijdelijke reproductie’, maar ook de uitzonderingen voor tekst- en datamining (TDM). In deze FAQ wordt gefocust op deze laatste bepalingen, omdat deze de meest concrete aanknopingspunten voor actie bieden en het er ook op lijkt dat de Europese wetgever in de nieuwe AI Act hier concreet bij aanknoopt. TDM is volgens de wet “een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.” Een dergelijke techniek wordt ook gebruikt voor het trainen van AI om bepaalde output te genereren. Deze uitzonderingen in de wet maken duidelijk in welke gevallen tekst- en datamining van auteursrechtelijk beschermd werk eventueel is toegestaan.
Dat is allereerst wanneer dit wordt gedaan door onderzoeksorganisaties en cultureel erfgoedinstellingen met het oog op wetenschappelijk onderzoek. Zij mogen op basis van deze uitzondering waarschijnlijk gebruik maken van auteursrechtelijk beschermde werken voor TDM-doeleinden (waaronder het trainen van experimentele AI), wanneer zij rechtmatige toegang hiertoe hebben. Zij mogen ook een database maken van hun trainingsdata, wanneer zij deze goed beschermen.
De tweede uitzondering ziet op gebruik voor andere doeleinden, waaronder commerciële doeleinden. Ook bij dit gebruik mag aan tekst- en datamining worden gedaan wanneer de gebruiker rechtmatige toegang heeft tot de auteursrechtelijk beschermde content, maar rechthebbenden hebben de mogelijk om te ‘opt-out’-en van gebruik voor deze doeleinden. Wanneer zij expliciet het auteursrecht voorbehouden en door hen dus duidelijk is aangegeven dat het werk niet gebruikt mag worden voor tekst- en datamining, kan er geen beroep worden gedaan op deze uitzondering. Bovendien mag in deze gevallen geen database van de trainingsdata worden aangelegd.
De vraag is echter in hoeverre deze ‘opt-out’ -mogelijkheid daadwerkelijk een uitkomst biedt voor makers en hen effectief de mogelijkheid geeft om hun eigen rechten te beheren. Allereerst is door gebrek aan transparantie (nog) onduidelijk of een ‘opt-out’ wordt gerespecteerd door de grote AI- ontwikkelaars en in welke vorm dit dient te gebeuren. Zeker wanneer de maker sociale media platforms gebruikt of wanneer het werk van de maker breed wordt verspreid zonder toestemming, heeft zij weinig controle over wat er met haar uploads gebeurt. Het internet maakt dat makers weinig controle hebben over hun werk. Bovendien kan een opt-out eigenlijk alleen worden ingeroepen vóórdat AI met het werk is getraind: het lijkt erop dat een AI-systeem iets eigenlijk niet kan ‘ontleren’. Een AI-systeem kan alleen opnieuw getraind worden met data waar bepaalde werken uit zijn gehaald. Omdat dat veel geld, tijd en energie kost gebeurt dat hertrainen slechts sporadisch. Er wordt dus wel gezegd dat ‘het kwaad al is geschied’ wat betreft het werk dat tot op heden nog niet onder een opt-out is gepubliceerd. Momenteel zijn verschillende organisaties zich aan het beraden over wat hieraan te doen, en of bijvoorbeeld met een geldelijke vergoeding tegemoetgekomen kan worden aan deze makers.
Het is de vraag of met de hierboven geschetste systematiek wel de juiste balans is gevonden tussen de rechten van makers en die van AI-ontwikkelaars. Pictoright vraagt zich sterk af of hier wel is voldaan aan de eisen die door de wet aan uitzonderingen op het auteursrecht worden gesteld, bijvoorbeeld dat deze geen afbreuk mogen doen aan de normale exploitatie van diens werk. Vooralsnog zullen beeldmakers en Pictoright er alles aan moeten doen om ervoor te zorgen dat zij de mogelijkheden van opt-out zo benutten.
Wat kan ik doen om te voorkomen dat mijn werk, dat is geplaatst op een door mij beheerde site, wordt gebruikt als trainingsdata voor een AI-systeem?
Zoals hierboven beschreven kun je als maker niet voorkomen dat je werk wordt ‘gescraped’ van het internet, en gebruikt voor TDM-doeleinden, wanneer dit wordt gedaan door non-profit wetenschappelijk onderzoeksorganisaties en cultureel erfgoedinstellingen. De Auteurswet biedt wél de mogelijkheid om te ‘opt-out’-en van commerciële tekst- en datamining door het maken van een rechtenvoorbehoud. Dit moet, waar het gaat om online aanwezige content, echter wel op een manier worden gedaan die leesbaar is voor de TDM-software (‘machine-leesbaar’). Hoe dit precies gedaan dient te worden is nog onduidelijk: enige coördinatie op dit gebied wordt op den duur vanuit Europa wel verwacht. Tot die tijd moeten we het doen met wat er nu voor handen is. Pictoright kan de werkbaarheid en juridische status van onderstaande methoden niet kan garanderen. Maar we helpen je wellicht op weg om, wanneer je dat wilt, de ‘opt-out’ te implementeren in je artistieke praktijk. Kijk voor meer gedetailleerde instructies over hoe deze methoden te gebruiken vooral verder online.
Er zijn waarschijnlijk verschillende manieren om dit te doen. Recent heeft de Federatie Beeldrechten, waar Pictoright ook onderdeel van is, een nieuw initiatief gelanceerd: Opt Out Now! Het is een initiatief vanuit de beeldmakers sector, waar je op een laagdrempelige manier kunt aangeven dat jouw gehele oeuvre niet gebruikt mag worden voor AI-training. Je bent niet afhankelijk van de grote tech-platforms en hoeft niet door ingewikkelde technische hoepels te springen. Pictoright raadt dan ook iedereen aan om van Opt Out Now! gebruik te maken. Het blijft daarnaast natuurlijk nog mogelijk (en misschien ook verstandig) om verdere maatregelen te nemen. Deze zullen we hieronder verder uiteen zetten.
Allereerst kan dit bijvoorbeeld door het gebruiken van het zogenaamde ‘robots.txt-protocol’ op je website. Deze optie is vanaf het begin al naar voren geschoven. Je kunt hier invulling aan geven, bijvoorbeeld door specifieke AI partijen uit te sluiten van toegang tot je website. Dit is bijvoorbeeld gedaan door verschillende krantenuitgevers. Misschien dat je daar kunt kijken voor inspiratie. Het risico hiervan schijnt echter te zijn dat je webpagina in een enkel geval ook niet meer vindbaar is via Google, wat eventueel slecht zou kunnen uitpakken voor je online aanwezigheid als maker. Bovendien komen er steeds nieuwe AI-bedrijven en crawlers bij, en zul je deze daarom mogelijk steeds moeten updaten. Daarom zijn verschillende initiatieven opgezet om een protocol te ontwikkelen dat meer specifiek gericht is om het scrapen voor TDM-doeleinden te voorkomen. Deze kunnen geïmplementeerd worden in je eigen website. Kijk bijvoorbeeld eens naar het W3C TDM protocol, of naar het door Spawning ontwikkelde ai.txt-protocol. Het nadeel van deze opties is dat zij beperkt zijn tot een specifieke webpagina. Alleen (de inhoud van) deze webpagina lijkt in dit geval te worden uitgesloten en niet dezelfde inhoud op andere pagina’s. Wanneer je werk over het internet verspreid is, is dit helaas dus weinig effectief.
Er zijn ook manieren om op werk-basis te opt-outen. Een optie is bijvoorbeeld het ‘Do Not Train’-register van Spawning. Dit werkt via ‘Have I Been Trained’. Zie hierover meer: Wat kan ik doen als mijn werk al in een AI-database is opgenomen? Of dit register daadwerkelijk al je werk opt-out is echter niet duidelijk. Een andere optie is om voorafgaand aan het uploaden van je werk hier een soort ‘mantel’ over te leggen, die het moeilijker maakt voor AI om je werk te reproduceren wanneer je dit werk online hebt geüpload. Deze optie wordt bijvoorbeeld aangeboden door Glaze en door Nightshade en Kudurru. Daarmee ‘beschadig’ je ook de database waar deze versie van je werk in terechtkomt, omdat het een vertekend beeld krijgt van hoe bepaalde beelden eruitzien. Ben je dus in principe niet tégen AI, maar wil je wel controle houden over je werk, dan is dit misschien niet de beste optie, omdat je hiermee het systeem ondermijnt.
Waar mogelijk kun je daarnaast gebruik maken van vaste instellingen op platforms waar veel beeldend werk wordt gedeeld. Zo hebben ArtStation en DeviantArt inmiddels een ‘tag’ ontwikkeld, de zogenaamde NoAI of NoImageAI- tags, die je kunt selecteren bij het uploaden van je werk op deze platforms. Hiermee geef je aan dat je dit specifieke werk uitzondert van de mogelijkheid om het voor TDM te gebruiken. Dit wordt geïntegreerd in de HTML, en is leesbaar voor crawling software. Of deze opt-out manier ook geaccepteerd wordt door andere systemen dan de eigen systemen van ArtStation en DeviantArt blijft tot nu toe onduidelijk.
Hoewel het de voorkeur verdient om je bij een centrale opt-out mogelijkheid te melden, is het een andere (aanvullende) optie om je ook direct te melden bij de betreffende AI-ontwikkelaar. Zo kun je door een formulier in te vullen bijvoorbeeld Meta (het moederbedrijf van Facebook en Instagram) verzoeken om jouw uploads, zoekopdrachten en privégegevens niet te gebruiken voor het trainen van hun AI. Dit kun je via de instellingen van jouw Facebook of Instagram account doen. Deze optie lijkt alleen te zien op alles wat je zélf uploadt, en niet op werk van jou dat door anderen wordt geüpload. Alomvattend is het dus niet. Bovendien is het een omslachtig proces, waarbij jouw (onderbouwde) verzoek ook nog moet worden “goedgekeurd” door Meta. Dit is uiteraard niet de bedoeling: een maker moet zelfstandig kunnen kiezen een opt-out te doen. We raden voor een hogere slagingskans aan om naast het auteursrecht, hierbij ook een beroep te doen op jouw privacyrechten op grond van de Algemene Verordening Gegevensbescherming (AVG). Ook een bedrijf als OpenAI werkt aan een zogenaamde ‘Media Manager’. Deze wordt echter pas in 2025 verwacht, dus voor die tijd is het verstandig om ook andere opties te gebruiken.
Tot slot hanteren sommige makers ook een geschreven disclaimer op de website, bijvoorbeeld in de algemene voorwaarden of onderaan de eigen webpagina. Hier heeft ook de Koninklijke Bibliotheek, beheerder van grote hoeveelheden beeld en daarmee een waardevolle bron voor data verzamelaars, recent voor gekozen. Hoewel ook hier nog onduidelijkheid bestaat over of dit voldoende machine-leesbaar is of volledig sluitend is voor de (Nederlandse) juridische situatie, is dit een makkelijke en toegankelijke manier om te opt-outen. Denk er hierbij aan dat het mogelijk het beste is om dit in het Engels te doen, vanwege de veelal Engelstalige AI-producenten, en kijk ter illustratie bijvoorbeeld eens naar het voorbehoud dat door de Authors Guild wordt gesuggereerd hiervoor. Op collectief niveau kiest ook Pictoright (mede) voor deze optie. Zie het statement elders op onze website.
In de toekomst komt er naar verwachting hopelijk een standaard voor een opt-out procedure, die door alle AI-ontwikkelaars geaccepteerd zal worden. Dit zal mogelijk op EU-niveau gecoördineerd worden. De vraag is echter of een dergelijke procedure voldoende is om daadwerkelijk effectief gebruik te maken van de mogelijkheid tot ‘opt-out’, nu de huidige opties vooral zien op uploads waar de maker zélf controle over heeft, bijvoorbeeld op de eigen website of social media pagina. Of een opt-out ook gaat kunnen zien op illegale uploads, of dat dit op collectief niveau of per oeuvre/maker gedaan gaat kunnen worden, is nu nog onduidelijk.
Wat doet Pictoright om te voorkomen dat mijn werk wordt gebruikt als trainingsdata voor een AI-systeem?
Pictoright is, in samenwerking met zijn partners van de Federatie Beeldrechten, waaronder BNO, NVJ/NVF, Dupho, BBK, BOK, Kunstenbond en Platform BK, bezig zich verder te verdiepen in wat zij concreet in hun dagelijkse praktijk kunnen doen om aan de zorgen van makers omtrent AI tegemoet te komen. Onderdeel hiervan is ook het Opt Out Now!-initiatief, waarmee we een eigen opt-out mogelijkheid hebben gecreëerd. Zie over de inzet van onze werkgroep meer op de AI-pagina van de Federatie. Zo’n opt-out heeft Pictoright voor haar volledig aangeslotenen ook op collectief niveau gedaan, door middel van een (downloadbaar) statement op de website. Daarnaast is Pictoright al concreet bezig om in nieuwe licentiecontracten bepalingen op te nemen over de beschikbaarheid van werken voor TDM-doeleinden: in feite een verplichte AI opt-out voor alle licentiepartners. Maar ook op andere vlakken wordt gekeken naar welke acties genomen moeten worden. Zo zijn wij actief betrokken bij de inspanningen van de Europese koepelorganisatie EVA Om op Europees niveau voor betere wetgeving te lobby-en. Daarnaast proberen wij ook op andere manieren een rechtenvoorbehoud voor onze rechthebbenden op collectief niveau te faciliteren.
Wat kan ik doen als mijn werk al in een AI-database is opgenomen?
Allereerst zul je moeten vaststellen of dit het geval is: is je werk opgenomen in een AI-database? Dit kun je controleren door bijvoorbeeld gebruik te maken van de website: Have I Been Trained? Met deze tool kun je controleren of jouw werk is opgenomen in verscheidene veelgebruikte databases is opgenomen. Het dekt echter zeker niet de databases van alle aanbieders. Hierin zal de AI Act in zeer beperkte mate aan tegemoet komen: in de toekomst zullen aanbieders aan moeten geven welke databases zij gebruiken en wat hier heel algemeen in zit. Via Have I Been Trained? kun je als rechthebbende ook meteen gebruik maken van hun ‘Do Not Train’-register en daarmee je werk in feite ‘uit’ de database halen wanneer nieuwe systemen worden getraind of bestaande systemen worden ‘geüpdatet’. Het lijkt er echter op dat dit misschien óók kan door op een andere manier te opt-outen. Ook dan zal de AI-aanbieder dit moeten accepteren. Zie hierover meer onder ‘Wat kan ik als maker doen om te voorkomen dat mijn werk, dat is geplaatst op een door mij beheerde site, wordt gebruikt als trainingsdata voor een AI-systeem?’.
Wat zal de AI Act kunnen betekenen voor beeldmakers?
Binnen de Europese wetgevingsinstanties is hard gewerkt aan regelgeving die van toepassing zal zijn op kunstmatige intelligentie: de zogenaamde ‘AI Act’. Deze zal naar verwachting in de loop van dit jaar formeel geaccepteerd worden en in de loop van 2025 waarschijnlijk ‘van kracht’ zijn en daarmee bindend voor aanbieders van AI systemen.
In de AI Act worden hoog risico-toepassingen van AI aangewezen (denk daarbij aan analyse van biometrische gegevens of sociale kredietscores). In de laatste versie van de Act zijn ook voorstellen opgenomen die specifieke normen opleggen aan “generatieve AI” (de zogenaamde foundation models). Ook deze systemen moeten aan bepaalde zorgvuldigheids- en transparantienormen voldoen. Zo dienen de ontwikkelaars van deze modellen door middel van een ‘samenvatting’ (beperkt) inzicht te geven in hun trainingsdata en moeten zij een rechtenvoorbehoud van een rechthebbende (een opt-out) accepteren. Dat lijkt in feite een bevestiging vanuit de Europese wetgever dat de reeds bestaande wetgeving over tekst- en datamining in het geval van AI trainen toegepast moet worden. Los van de aanvullende transparantie-eisen, die erg algemeen blijven, heeft de AI Act voor rechthebbenden helaas dus weinig nieuws geregeld.
Deze FAQ zal worden geüpdatet waar mogelijk. Laatste update mei 2024.