Mag mijn werk gebruikt worden als trainingsdata voor een AI-systeem?
Uiteraard mag de trainingsdata waarmee een AI-systeem getraind wordt niet illegaal zijn. Dat betekent niet alleen dat er niet zonder toestemming persoonsgegevens mogen worden verwerkt, of dat er geen kinderporno of terroristische content in de database mag worden opgenomen, maar ook dat rekening gehouden dient te worden met het auteursrecht.
Er wordt wel gezegd dat wat AI doet, iets maken op basis van wat het zelf tot zich heeft genomen, erg lijkt op wat menselijke makers doen. In feite wordt de AI, net als een menselijke maker die inspiratie opdoet in diens omgeving, ‘geïnspireerd’ door wat het tot zich neemt. Toch is deze situatie heel anders. AI wordt niet geïnspireerd, maar verwerkt en dus reproduceert beelden als zijnde data, herstructureert deze, en gebruikt het dan op een andere manier. Dit zijn auteursrechtelijk relevante handelingen, in tegenstelling tot een menselijke maker die zich door diens omgeving laat inspireren tot het creëren van iets nieuws.
Om te kijken hoe dit auteursrechtelijk gezien beoordeeld moet worden moeten we terugvallen op de bestaande wetgeving. Daarbij kan gekeken worden naar bepaalde uitzonderingen op het auteursrecht, waaronder mogelijk de uitzondering voor ‘tijdelijke reproductie’, maar ook de uitzonderingen voor tekst- en datamining (TDM). In deze FAQ wordt gefocust op deze laatste bepalingen, omdat deze de meest concrete aanknopingspunten voor actie bieden en het er ook op lijkt dat de Europese wetgever in de nieuwe AI Act hier concreet bij aanknoopt. TDM is volgens de wet “een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.” Een dergelijke techniek wordt ook gebruikt voor het trainen van AI om bepaalde output te genereren. Deze uitzonderingen in de wet maken duidelijk in welke gevallen tekst- en datamining van auteursrechtelijk beschermd werk eventueel is toegestaan.
Dat is allereerst wanneer dit wordt gedaan door onderzoeksorganisaties en cultureel erfgoedinstellingen met het oog op wetenschappelijk onderzoek. Zij mogen op basis van deze uitzondering waarschijnlijk gebruik maken van auteursrechtelijk beschermde werken voor TDM-doeleinden (waaronder het trainen van experimentele AI), wanneer zij rechtmatige toegang hiertoe hebben. Zij mogen ook een database maken van hun trainingsdata, wanneer zij deze goed beschermen.
De tweede uitzondering ziet op gebruik voor andere doeleinden, waaronder commerciële doeleinden. Ook bij dit gebruik mag aan tekst- en datamining worden gedaan wanneer de gebruiker rechtmatige toegang heeft tot de auteursrechtelijk beschermde content, maar rechthebbenden hebben de mogelijk om te ‘opt-out’-en van gebruik voor deze doeleinden. Wanneer zij expliciet het auteursrecht voorbehouden en door hen dus duidelijk is aangegeven dat het werk niet gebruikt mag worden voor tekst- en datamining, kan er geen beroep worden gedaan op deze uitzondering. Bovendien mag in deze gevallen geen database van de trainingsdata worden aangelegd.
De vraag is echter in hoeverre deze ‘opt-out’ -mogelijkheid daadwerkelijk een uitkomst biedt voor makers en hen effectief de mogelijkheid geeft om hun eigen rechten te beheren. Allereerst is door gebrek aan transparantie (nog) onduidelijk of een ‘opt-out’ wordt gerespecteerd door de grote AI- ontwikkelaars en in welke vorm dit dient te gebeuren. Zeker wanneer de maker sociale media platforms gebruikt of wanneer het werk van de maker breed wordt verspreid zonder toestemming, heeft zij weinig controle over wat er met haar uploads gebeurt. Het internet maakt dat makers weinig controle hebben over hun werk. Bovendien kan een opt-out eigenlijk alleen worden ingeroepen vóórdat AI met het werk is getraind: het lijkt erop dat een AI-systeem iets eigenlijk niet kan ‘ontleren’. Een AI-systeem kan alleen opnieuw getraind worden met data waar bepaalde werken uit zijn gehaald. Omdat dat veel geld, tijd en energie kost gebeurt dat hertrainen slechts sporadisch. Er wordt dus wel gezegd dat ‘het kwaad al is geschied’ wat betreft het werk dat tot op heden nog niet onder een opt-out is gepubliceerd. Momenteel zijn verschillende organisaties zich aan het beraden over wat hieraan te doen, en of bijvoorbeeld met een geldelijke vergoeding tegemoetgekomen kan worden aan deze makers.
Het is de vraag of met de hierboven geschetste systematiek wel de juiste balans is gevonden tussen de rechten van makers en die van AI-ontwikkelaars. Pictoright vraagt zich sterk af of hier wel is voldaan aan de eisen die door de wet aan uitzonderingen op het auteursrecht worden gesteld, bijvoorbeeld dat deze geen afbreuk mogen doen aan de normale exploitatie van diens werk. Vooralsnog zullen beeldmakers en Pictoright er alles aan moeten doen om ervoor te zorgen dat zij de mogelijkheden van opt-out zo benutten.