MONOLITH LAW OFFICE+81-3-6262-3248Weekdagen 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

General Corporate

Kunstmatige Intelligentie en het Japanse Auteursrecht: Een Juridische Risicogids voor Bedrijven

General Corporate

Kunstmatige Intelligentie en het Japanse Auteursrecht: Een Juridische Risicogids voor Bedrijven

Generatieve AI kan een revolutie teweegbrengen in alle aspecten van bedrijfsvoering. Van contentcreatie tot onderzoek en ontwikkeling, en klantenservice – de toepassingsmogelijkheden breiden dagelijks uit. Deze technologische innovatie presenteert echter nieuwe juridische uitdagingen voor bedrijven, vooral in relatie tot de Japanse auteursrechtwet. Terwijl veel bedrijven de implementatie van generatieve AI overwegen of bevorderen, is het essentieel om de risico’s van auteursrechtinbreuk die achter de voordelen schuilgaan, nauwkeurig te begrijpen en te beheren. De Japanse auteursrechtwet heeft een kenmerkende structuur die verschillende juridische principes toepast tijdens de ontwikkelings- en gebruiksfases van AI, wat bijdraagt aan de complexiteit. Het begrijpen van deze dubbele structuur, waarbij relatief soepele regels gelden tijdens de leerfase van AI om ontwikkeling te stimuleren, terwijl strenge verantwoordelijkheden worden opgelegd aan gebruikers die de gegenereerde producten benutten, is de eerste stap in risicobeheer. In dit artikel leggen we systematisch de belangrijkste juridische kwesties uit die generatieve AI met zich meebrengt binnen het kader van de Japanse auteursrechtwet. We bespreken specifiek de juridische behandeling van AI in de ‘ontwikkelings- en leerfase’, de risico’s van auteursrechtinbreuk bij het ‘genereren en gebruiken’ van content in bedrijfsactiviteiten, de toewijzing van auteursrechten op AI-gegenereerde werken, en de verantwoordelijkheden en juridische maatregelen voor bedrijven in het geval van een inbreuk, met inachtneming van de visie van het Japanse Agentschap voor Culturele Zaken.

AI-ontwikkeling en leerfase onder het Japanse auteursrecht

Voor het ontplooien van geavanceerde capaciteiten heeft generatieve AI een enorme hoeveelheid data nodig om te leren. Deze data omvat teksten, afbeeldingen, muziek, programmacode en andere werken die beschermd zijn door het auteursrecht. Het Japanse auteursrecht, specifiek de Japanse Auteursrechtwet, faciliteert het gebruik van dergelijke werken in AI-ontwikkeling door onder bepaalde voorwaarden geen toestemming van de auteursrechthouder te vereisen.

De kern van deze regeling is Artikel 30-4 van de Japanse Auteursrechtwet, geïntroduceerd met een wetswijziging in 2018 (Heisei 30). Dit artikel staat het gebruik toe dat niet gericht is op het ervaren van de ideeën of emoties uitgedrukt in het werk, en wordt beschouwd als een ‘flexibele beperking van rechten’. Het doel van AI-leren is niet dat mensen werken waarderen voor plezier (oftewel ‘ervaren’), maar om patronen en structuren in de data te extraheren en te analyseren. Daarom kunnen AI-ontwikkelaars in principe zonder toestemming van de auteursrechthouder gebruikmaken van openbaar beschikbare data op het internet voor leerdoeleinden. Deze bepaling is ingegeven door het beleid om technologische innovatie en de concurrentiekracht van Japan te bevorderen.

Echter, er zijn belangrijke uitzonderingen op dit principe. Artikel 30-4 van de Japanse Auteursrechtwet bepaalt in een voorbehoud dat ‘indien het gebruik van het werk, gezien de aard en het doel ervan en de wijze van gebruik, de belangen van de auteursrechthouder onrechtmatig schaadt, deze beperking niet van toepassing is’. Wat als ‘onrechtmatige schade’ wordt beschouwd, vereist een specifieke beoordeling, maar de Japanse Culturele Zaken Agentschap heeft in hun ‘Overwegingen over AI en auteursrecht’ enkele voorbeelden gegeven.

Zo wordt het zonder vergoeding kopiëren en gebruiken van databankwerken die specifiek zijn georganiseerd en verkocht voor AI-leerdoeleinden, gezien als een handeling die potentieel de markt van de databankaanbieder direct beconcurreert en hun belangen onrechtmatig schaadt. Ook kan het gericht leren van werken van een specifieke maker met het doel content te genereren die hun stijl imiteert, worden gezien als een afwijking van het oorspronkelijke ‘niet-ervaringsdoel’ en kan het worden beoordeeld alsof er ook een ervaringsdoel aanwezig is. Bovendien wordt het verzamelen van data voor AI-leren uit bronnen waarvan men weet dat ze auteursrechtelijk beschermde werken bevatten, ook wel piraterij genoemd, gezien als een handeling die inbreuk op rechten bevordert en problematisch is.

Wat deze voorbeelden illustreren, is dat compliance in de ontwikkelingsfase van AI niet alleen een technische kwestie is van het kunnen kopiëren van data, maar ook een complexere beoordeling vereist van of de handeling de bestaande markt of de legitieme belangen van de rechthebbenden economisch schaadt. Wanneer bedrijven AI ontwikkelen of de ontwikkeling uitbesteden, is een zorgvuldige due diligence vereist om te verzekeren dat de herkomst en het gebruik van de leerdata voldoen aan deze juridische en ethische normen.

Het Risico op Auteursrechtinbreuk bij het Gebruik van AI-gegenereerde Content

Zelfs als de ontwikkeling en het leerproces van AI rechtmatig plaatsvinden onder artikel 30, lid 4, van de Japanse Auteursrechtwet, is er geen garantie dat de content die door de AI wordt gegenereerd geen auteursrechten schendt. Juridische bescherming is beperkt tot de leerfase, en tijdens de generatie- en gebruiksfase draagt de gebruiker van de AI het directe risico op aansprakelijkheid voor auteursrechtinbreuk.

In Japanse rechtszaken wordt over het algemeen aangenomen dat voor het vaststellen van auteursrechtinbreuk twee vereisten vervuld moeten zijn: ‘gelijkenis’ en ‘afhankelijkheid’. Gelijkenis betekent dat het latere werk substantieel lijkt op het creatieve expressiegedeelte van het bestaande auteursrechtelijk beschermde werk. Een simpele overeenkomst in ideeën, stijl of alledaagse uitdrukkingen is niet voldoende om gelijkenis aan te nemen. Afhankelijkheid betekent dat het latere werk is gecreëerd op basis van een bestaand werk; als het toevallig is gecreëerd zonder kennis van het bestaande werk, wordt afhankelijkheid ontkend.

Bij het gebruik van generatieve AI is het goed mogelijk dat het gegenereerde product lijkt op een bestaand auteursrechtelijk beschermd werk. Het probleem ligt bij het beoordelen van de afhankelijkheid. Als de gebruiker van de AI zich bewust is van een specifiek auteursrechtelijk beschermd werk en instructies (prompts) heeft gegeven om dit na te bootsen, is het duidelijk dat afhankelijkheid wordt erkend. Ingewikkelder is het wanneer de gebruiker zich niet bewust is van een specifiek werk, maar de AI dit werk als leerdata heeft gebruikt en daardoor iets soortgelijks heeft gegenereerd. Hoewel er nog geen gevestigde juridische mening is over dit punt, bestaat er discussie over de mogelijkheid dat afhankelijkheid kan worden afgeleid uit het feit dat het betreffende werk in de leerdata van de AI was opgenomen. De leerdata van een AI-model zijn vaak omvangrijk en een ‘black box’, waardoor het voor gebruikers praktisch onmogelijk is om het geheel te overzien. Dit vormt een fundamenteel juridisch risico dat voor bedrijven uiterst moeilijk te beheren is.

Omdat het onmogelijk is dit risico volledig uit te sluiten, moeten bedrijven maatregelen nemen om het risico te beheren en zich voor te bereiden op eventuele geschillen. Ten eerste is het belangrijk om duidelijke richtlijnen op te stellen voor het gebruik van generatieve AI binnen het bedrijf en om de opleiding van werknemers te intensiveren. Er moet worden vastgesteld voor welke doeleinden, met welke AI-tools en op welke manier deze gebruikt mogen worden. Ten tweede moet er, vooral voordat AI-gegenereerde content extern wordt gepubliceerd, altijd een proces van menselijke controle en redactie worden ingevoerd. AI-gegenereerde content moet slechts als een ‘eerste aanzet’ worden beschouwd, en door menselijke creatieve beoordeling toe te voegen aan het uiteindelijke product, kan de gelijkenis met het originele werk worden verminderd. Ten derde is het wenselijk om zoveel mogelijk records van het generatieproces te bewaren. Records van welke prompts zijn gebruikt voor de generatie kunnen nuttig zijn om aan te tonen dat er geen inbreukmakende intentie was, mocht afhankelijkheid ter discussie worden gesteld.

Vergelijking van de belangrijkste juridische kwesties rond AI en auteursrecht

De juridische problemen rond AI en auteursrecht verschillen sterk afhankelijk van de fase in de levenscyclus van AI. De onderstaande tabel vergelijkt en organiseert de belangrijkste juridische kwesties tijdens de ‘ontwikkelings- en leerfase’ en de ‘generatie- en gebruiksfase’. Door deze vergelijking kunnen we duidelijk begrijpen hoe de locatie van verantwoordelijkheid en de aard van risico’s veranderen.

VergelijkingscriteriaOntwikkelings- en leerfaseGeneratie- en gebruiksfase
Belangrijkste gerelateerde wetgevingArtikel 30-4 van de Japanse AuteursrechtwetRechten op reproductie en bewerking onder de Japanse Auteursrechtwet
Centrale juridische kwestieIs het gebruik ‘niet voor genot’ en ‘schendt het onrechtmatig de belangen van de auteursrechthouder’?Lijken de gegenereerde werken ‘gelijksoortig’ en zijn ze ‘afhankelijk’ van bestaande auteursrechtelijke werken?
HoofdverantwoordelijkeAI-ontwikkelaarsAI-gebruikers
Aard van juridische risico’sJuridische gebreken in het ontwikkelingsproces door illegale gegevensverzameling en lerenDirecte aansprakelijkheid voor het onbedoeld genereren en publiceren van auteursrechtinbreukmakende werken

Auteursrecht op door AI gegenereerde werken onder Japans recht

Wanneer bedrijven gebruikmaken van AI om marketingmateriaal, ontwerpen en rapporten te genereren, doet zich een uiterst belangrijke kwestie voor: “Ontstaat er auteursrecht op deze werken en zo ja, aan wie wordt dit recht toegekend?” Dit is cruciaal omdat het bepaalt of een bedrijf de door haar gegenereerde content als intellectueel eigendom kan beschermen en ongeautoriseerd gebruik door anderen kan voorkomen.

Artikel 2, lid 1, nummer 1 van de Japanse Auteursrechtwet definieert een werk als “een creatieve uitdrukking van gedachten of gevoelens die behoort tot het domein van literatuur, wetenschap, kunst of muziek”. Centraal in deze definitie staat de veronderstelling dat de schepper van het werk een mens is. Aangezien AI geen mens is, erkent de huidige wetgeving niet dat AI zelf als auteur auteursrechten kan bezitten op content die het autonoom genereert.

Of er auteursrecht op AI-gegenereerde werken wordt toegekend, hangt dus af van de aanwezigheid van “creatieve bijdragen” van mensen in het generatieproces. Alleen als een mens AI gebruikt als een ‘gereedschap’ en zijn of haar gedachten of gevoelens creatief uitdrukt, kan die persoon als auteur van een beschermd werk worden beschouwd.

Of een “creatieve bijdrage” wordt erkend, hangt af van de mate van menselijke betrokkenheid. Als bijvoorbeeld alleen een eenvoudige en algemene prompt zoals “een kat verlicht door de zonsondergang” wordt ingevoerd en AI autonoom de meeste specifieke uitdrukkingen bepaalt, wordt de creatieve bijdrage van de mens als gering beschouwd en is het onwaarschijnlijk dat het werk auteursrechtelijke bescherming krijgt.

Aan de andere kant, als een mens een specifieke creatieve intentie heeft en talrijke gedetailleerde instructies in de prompt opneemt om die intentie te realiseren, en na veel trial-and-error een specifieke uitdrukking verkrijgt, kan het hele proces van instructies en keuzes als een creatieve handeling worden beschouwd en kan het werk auteursrechtelijke bescherming krijgen. Bovendien, als een mens meerdere door AI gegenereerde afbeeldingen selecteert en rangschikt, en aanzienlijke wijzigingen en correcties aanbrengt om een enkel werk te voltooien, ontstaat er duidelijk auteursrecht op het creatieve redactie- en bewerkingswerk van die persoon.

Dit biedt belangrijke strategische inzichten voor bedrijven. Om waardevol intellectueel eigendom te creëren met behulp van AI, is het essentieel om niet alleen de AI instructies te geven voor generatie, maar ook om bewust menselijke creatieve betrokkenheid in het proces te integreren en dit te documenteren. Het vastleggen van gedetailleerde promptgeschiedenis, het selectieproces van de resultaten en de specifieke inhoud van menselijke nabewerking kan dienen als belangrijk bewijs om in de toekomst auteursrecht op die content te claimen en te beschermen.

Verantwoordelijkheid en Juridische Maatregelen waarmee Bedrijven Geconfronteerd Worden in Japan

Wanneer een bedrijf onbedoeld auteursrechten schendt door het gebruik van generatieve AI, kan het geconfronteerd worden met ernstige juridische maatregelen. Auteursrechthouders hebben meerdere krachtige juridische middelen tot hun beschikking onder de Japanse Auteursrechtwet en het Japanse Burgerlijk Wetboek om hun rechten te beschermen.

De meest directe maatregel is een civiele vordering. Auteursrechthouders kunnen een ‘stakingsvordering’ indienen om de inbreukmakende activiteiten te stoppen of te voorkomen. Hierdoor kan een bedrijf gedwongen worden om het gebruik van inbreukmakende content onmiddellijk te staken en bijvoorbeeld van hun website te verwijderen. Daarnaast kan een bedrijf geconfronteerd worden met een ‘schadevergoedingsclaim’ voor de schade die de auteursrechthouder heeft geleden door de inbreuk. Hoewel de berekening van de schadevergoeding complex is, kan het bedrag aanzienlijk zijn en gebaseerd op bijvoorbeeld de winst die het bedrijf heeft gemaakt door de inbreuk. Als de persoonlijkheidsrechten van de auteur zijn geschonden, kan er ook gevraagd worden om maatregelen zoals het plaatsen van een excuusadvertentie als ‘herstel van eer en goede naam’.

Naast civiele aansprakelijkheid kan auteursrechtinbreuk ook leiden tot strafrechtelijke sancties. In het bijzonder kan in ernstige gevallen, na aangifte door de rechthebbende, een strafzaak ontstaan. Voor individuen kan dit leiden tot een gevangenisstraf van maximaal tien jaar of een boete van maximaal 10 miljoen yen, maar voor rechtspersonen die de inbreuk als onderdeel van hun bedrijfsactiviteiten plegen, kan een uiterst zware boete van maximaal 300 miljoen yen worden opgelegd.

De verantwoordelijke partij is in principe de gebruiker van de AI die het product genereert, oftewel het bedrijf zelf. Echter, als de door de AI-ontwikkelaar aangeboden dienst technisch ontworpen is om opzettelijk of met hoge waarschijnlijkheid iets te genereren dat lijkt op een specifiek auteursrechtelijk beschermd werk, kan er discussie zijn over het delen van de verantwoordelijkheid door de ontwikkelaar.

Op dit moment zijn er in Japan nog maar weinig definitieve rechterlijke uitspraken die specifiek de auteursrechtkwesties van generatieve AI behandelen. Echter, er zijn al concrete geschillen ontstaan, zoals een grote Japanse krantenuitgever die een buitenlandse generatieve AI-onderneming aanklaagt voor het zonder toestemming leren en gebruiken van hun betaalde artikelen, en schadevergoeding eist. In een situatie waarin dergelijke rechterlijke beslissingen ontbreken, zijn de officiële standpunten en richtlijnen die door het genoemde Agentschap voor Culturele Zaken worden aangegeven, van cruciaal belang als de facto gedragsnormen voor bedrijven om juridische risico’s te beoordelen en de te volgen normen te bepalen. Daarom moet de compliance-strategie van een bedrijf strikt gebaseerd zijn op het volgen van de richtlijnen van deze administratieve instantie.

Samenvatting

Generatieve AI kan onmetelijke voordelen bieden voor bedrijven, maar brengt tegelijkertijd aanzienlijke juridische risico’s met zich mee onder de Japanse auteursrechtwetgeving. Het Japanse rechtssysteem heeft een tweeledige structuur die enerzijds flexibiliteit toestaat in de leerfase om AI-ontwikkeling te bevorderen, terwijl het anderzijds strikte aansprakelijkheid voor auteursrechtinbreuk oplegt aan gebruikers die de gegenereerde output benutten. Een diepgaand begrip van deze structuur is cruciaal voor bedrijven om veilig gebruik te maken van AI-technologie. Zelfs als de leerdata voor AI rechtmatig zijn verzameld, kan de gebruiker die content genereert, ernstige civiele en strafrechtelijke aansprakelijkheid riskeren als de gegenereerde content lijkt op bestaande auteurswerken. Het is essentieel voor bedrijven om proactieve en concrete risicobeheersmaatregelen te nemen, zoals het opstellen van interne richtlijnen, het invoeren van een grondig menselijk reviewproces en het documenteren van het creatieve proces om intellectuele eigendomsrechten te waarborgen.

Monolith Law Office heeft een trackrecord van het verstrekken van uitgebreid advies aan een groot aantal cliënten in Japan over de complexe juridische uitdagingen rondom generatieve AI en auteursrecht. Ons kantoor heeft meerdere experts in dienst die niet alleen gekwalificeerd zijn als Japanse advocaten, maar ook als buitenlandse advocaten en die Engels spreken, waardoor we gedetailleerde ondersteuning kunnen bieden aan bedrijven die internationaal opereren om nauwkeurig te navigeren binnen het Japanse rechtssysteem. Wij bieden gespecialiseerde juridische diensten, zoals advies over de in dit artikel besproken kwesties en ondersteuning bij het opzetten van concrete interne systemen.

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Terug naar boven