FAQ

Vragen over Auteursrecht

Vragen over Auteursrecht en AI

Vragen over Collectieve rechten

Vragen over het Dossier Platforms

Vragen over het gebruik van andermans werk

Vragen over Individuele rechten

Vragen over kunst in de openbare ruimte

Vragen over Pictoright

Vragen over Volgrecht

X

Wat kan ik doen om te voorkomen dat mijn werk, dat is geplaatst op een door mij beheerde site, wordt gebruikt als trainingsdata voor een AI-systeem?

Zoals hierboven beschreven kun je als maker niet voorkomen dat je werk wordt ‘gescraped’ van het internet, en gebruikt voor TDM-doeleinden, wanneer dit wordt gedaan door non-profit wetenschappelijk onderzoeksorganisaties en cultureel erfgoedinstellingen. De Auteurswet biedt wél de mogelijkheid om te ‘opt-out’-en van commerciële tekst- en datamining door het maken van een rechtenvoorbehoud. Dit moet, waar het gaat om online aanwezige content, echter wel op een manier worden gedaan die leesbaar is voor de TDM-software (‘machine-leesbaar’). Hoe dit precies gedaan dient te worden is nog onduidelijk: enige coördinatie op dit gebied wordt op den duur vanuit Europa wel verwacht. Tot die tijd moeten we het doen met wat er nu voor handen is. Pictoright kan de werkbaarheid en juridische status van onderstaande methoden niet kan garanderen. Maar we  helpen je wellicht op weg om, wanneer je dat wilt, de ‘opt-out’ te implementeren in je artistieke praktijk. Kijk voor meer gedetailleerde instructies over hoe deze methoden te gebruiken vooral verder online.

Er zijn waarschijnlijk verschillende manieren om dit te doen. Recent heeft de Federatie Beeldrechten, waar Pictoright ook onderdeel van is, een nieuw initiatief gelanceerd: Opt Out Now! Het is een initiatief vanuit de beeldmakers sector, waar je op een laagdrempelige manier kunt aangeven dat jouw gehele oeuvre niet gebruikt mag worden voor AI-training. Je bent niet afhankelijk van de grote tech-platforms en hoeft niet door ingewikkelde technische hoepels te springen. Pictoright raadt dan ook iedereen aan om van Opt Out Now! gebruik te maken. Het blijft daarnaast natuurlijk nog mogelijk (en misschien ook verstandig) om verdere maatregelen te nemen. Deze zullen we hieronder verder uiteen zetten.

Allereerst kan dit bijvoorbeeld door het gebruiken van het zogenaamde ‘robots.txt-protocol’ op je website. Deze optie is vanaf het begin al naar voren geschoven. Je kunt hier invulling aan geven, bijvoorbeeld door specifieke AI partijen uit te sluiten van toegang tot je website. Dit is bijvoorbeeld gedaan door verschillende krantenuitgevers. Misschien dat je daar kunt kijken voor inspiratie. Het risico hiervan schijnt echter te zijn dat je webpagina in een enkel geval ook niet meer vindbaar is via Google, wat eventueel slecht zou kunnen uitpakken voor je online aanwezigheid als maker. Bovendien komen er steeds nieuwe AI-bedrijven en crawlers bij, en zul je deze daarom mogelijk steeds moeten updaten. Daarom zijn verschillende initiatieven opgezet om een protocol te ontwikkelen dat meer specifiek gericht is om het scrapen voor TDM-doeleinden te voorkomen. Deze kunnen geïmplementeerd worden in je eigen website. Kijk bijvoorbeeld eens naar het W3C TDM protocol, of naar het door Spawning ontwikkelde ai.txt-protocol. Het nadeel van deze opties is dat zij beperkt zijn tot een specifieke webpagina. Alleen (de inhoud van) deze webpagina lijkt in dit geval te worden uitgesloten en niet dezelfde inhoud op andere pagina’s. Wanneer je werk over het internet verspreid is, is dit helaas dus weinig effectief.

Er zijn ook manieren om op werk-basis te opt-outen. Een optie is bijvoorbeeld het ‘Do Not Train’-register van Spawning. Dit werkt via ‘Have I Been Trained’. Zie hierover meer: Wat kan ik doen als mijn werk al in een AI-database is opgenomen? Of dit register daadwerkelijk al je werk opt-out is echter niet duidelijk. Een andere optie is om voorafgaand aan het uploaden van je werk hier een soort ‘mantel’ over te leggen, die het moeilijker maakt voor AI om je werk te reproduceren wanneer je dit werk online hebt geüpload. Deze optie wordt bijvoorbeeld aangeboden door Glaze en door Nightshade en Kudurru. Daarmee ‘beschadig’ je ook de database waar deze versie van je werk in terechtkomt, omdat het een vertekend beeld krijgt van hoe bepaalde beelden eruitzien. Ben je dus in principe niet tégen AI, maar wil je wel controle houden over je werk, dan is dit misschien niet de beste optie, omdat je hiermee het systeem ondermijnt.

Waar mogelijk kun je daarnaast gebruik maken van vaste instellingen op platforms waar veel beeldend werk wordt gedeeld. Zo hebben ArtStation en DeviantArt inmiddels een ‘tag’ ontwikkeld, de zogenaamde NoAI of NoImageAI- tags, die je kunt selecteren bij het uploaden van je werk op deze platforms. Hiermee geef je aan dat je dit specifieke werk uitzondert van de mogelijkheid om het voor TDM te gebruiken. Dit wordt geïntegreerd in de HTML, en is leesbaar voor crawling software. Of deze opt-out manier ook geaccepteerd wordt door andere systemen dan de eigen systemen van ArtStation en DeviantArt blijft tot nu toe onduidelijk.

Hoewel het de voorkeur verdient om je bij een centrale opt-out mogelijkheid te melden, is het een andere (aanvullende) optie om je ook direct te melden bij de betreffende AI-ontwikkelaar. Zo kun je door een formulier in te vullen bijvoorbeeld Meta (het moederbedrijf van Facebook en Instagram) verzoeken om jouw uploads, zoekopdrachten en privégegevens niet te gebruiken voor het trainen van hun AI. Dit kun je via de instellingen van jouw Facebook of Instagram account doen. Deze optie lijkt alleen te zien op alles wat je zélf uploadt, en niet op werk van jou dat door anderen wordt geüpload. Alomvattend is het dus niet. Bovendien is het een omslachtig proces, waarbij jouw (onderbouwde) verzoek ook nog moet worden “goedgekeurd” door Meta. Dit is uiteraard niet de bedoeling: een maker moet zelfstandig kunnen kiezen een opt-out te doen. We raden voor een hogere slagingskans aan om naast het auteursrecht, hierbij ook een beroep te doen op jouw privacyrechten op grond van de Algemene Verordening Gegevensbescherming (AVG). Ook een bedrijf als OpenAI werkt aan een zogenaamde ‘Media Manager’. Deze wordt echter pas in 2025 verwacht, dus voor die tijd is het verstandig om ook andere opties te gebruiken.

Tot slot hanteren sommige makers ook een geschreven disclaimer op de website, bijvoorbeeld in de algemene voorwaarden of onderaan de eigen webpagina. Hier heeft ook de Koninklijke Bibliotheek, beheerder van grote hoeveelheden beeld en daarmee een waardevolle bron voor data verzamelaars, recent voor gekozen. Hoewel ook hier nog onduidelijkheid bestaat over of dit voldoende machine-leesbaar is of volledig sluitend is voor de (Nederlandse) juridische situatie, is dit een makkelijke en toegankelijke manier om te opt-outen. Denk er hierbij aan dat het mogelijk het beste is om dit in het Engels te doen, vanwege de veelal Engelstalige AI-producenten, en kijk ter illustratie bijvoorbeeld eens naar het voorbehoud dat door de Authors Guild wordt gesuggereerd hiervoor. Op collectief niveau kiest ook Pictoright (mede) voor deze optie. Zie het statement elders op onze website.

In de toekomst komt er naar verwachting hopelijk een standaard voor een opt-out procedure, die door alle AI-ontwikkelaars geaccepteerd zal worden. Dit zal mogelijk op EU-niveau gecoördineerd worden. De vraag is echter of een dergelijke procedure voldoende is om daadwerkelijk effectief gebruik te maken van de mogelijkheid tot ‘opt-out’, nu de huidige opties vooral zien op uploads waar de maker zélf controle over heeft, bijvoorbeeld op de eigen website of social media pagina. Of een opt-out ook gaat kunnen zien op illegale uploads, of dat dit op collectief niveau of per oeuvre/maker gedaan gaat kunnen worden, is nu nog onduidelijk.