MONOLITH LAW OFFICE+81-3-6262-3248Hverdage 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Status for lovgivning, der regulerer AI? En sammenligning og handlingspunkter mellem Japan og EU forklaret

IT

Status for lovgivning, der regulerer AI? En sammenligning og handlingspunkter mellem Japan og EU forklaret

Generative AI, såsom ChatGPT, er blevet en stor trend. Denne type AI, som nu bliver integreret i forretningsverdenen, siges at være gnisten bag “den fjerde AI-bølge”. I takt med dette skrider udviklingen af en global juridisk ramme for regulering af AI også fremad.

I denne artikel vil vi fokusere på love relateret til AI og forklare den korrekte håndtering af intellektuel ejendomsret, personlige oplysninger og anden fortrolig information.

Definition og historie af AI (kunstig intelligens)

AI (artificial intelligence) refererer til “kunstig intelligens”. Juridisk set er der ingen streng definition, og der findes mange forskellige definitioner. Her er et eksempel.

KildeDefinition / Forklaring
“Kōjien”Et computersystem udstyret med intellektuelle funktioner såsom ræsonnement og dom.
“Britannica Encyclopædia”Videnskab og teknologi > Computer & AI. Evnen (ability) for digitale computere eller computerrobotter til at udføre opgaver relateret til intelligente væsener.
Artikel fra Japanese Society for Artificial Intelligence “AI som almen viden”Svaret på spørgsmålet “Hvad er AI?” er ikke simpelt. Der er stor debat blandt eksperter i AI, og dette alene kunne fylde en hel bog med de forskellige synspunkter. Sammenfattende kan man sige, at det er teknologien til mekanisk at realisere den samme intellektuelle arbejde som mennesker.
Akademisk artikel “Deep Learning og kunstig intelligens”AI er et forskningsfelt, der forsøger at konstruktivt afklare mekanismerne bag menneskelig intelligens
Akademisk artikel “På jagt efter en ideel form for et samfund med kunstig intelligens”Informationsteknologi, herunder AI, er i sidste ende et værktøj

AI betegnes også som en række teknologier, softwaregrupper, computersystemer og algoritmer, der genskaber menneskelig intellektuel kapacitet på computere.

Blandt de førende specialiserede AI’er kan følgende nævnes:

  • Natursprogsbehandling (maskinoversættelse, syntaksanalyse, morfologisk analyse, RNN osv.)
  • Ekspertsystemer, der imiterer eksperters ræsonnement og dom
  • Billed- og stemmegenkendelse, der opdager og ekstraherer specifikke mønstre fra data

Forskning og udvikling inden for AI (kunstig intelligens) har været i gang siden 1950’erne, computerens daggry. Den første AI-boom varede indtil 1970’erne med forskning i “søgning og ræsonnement”, og den anden AI-boom opstod i 1980’erne med forskning i “vidensrepræsentation”, hvilket førte til skabelsen af ekspertsystemer, og dermed opstod to paradigmeskift.

Efter år 2000 gjorde fremkomsten af big data sit indtog, og siden 2012 har introduktionen af Alexnet og den anerkendte anvendelighed af dyb læring (deep learning) i billedbehandling ført til en hurtig intensivering af forskningen og ankomsten af den tredje AI-boom.

Mellem 2016 og 2017 blev AI, der anvender dyb læring (deep learning) og forstærket læring (Q-læring, policy gradient metoder), introduceret.

Den tredje AI-booms hovedrevolutioner er især synlige inden for natursprogsbehandling og billedbehandling via sensorer, men har også haft stor indflydelse på teknologiudvikling, sociologi, etik og økonomi.

Den 30. november 2022 blev ChatGPT, en generativ AI til natursprogsbehandling lanceret af OpenAI, fremhævet som et alsidigt værktøj, hvilket har ført til en blomstrende generativ AI-forretning. Nogle kalder dette fænomen for den fjerde AI-boom.

Forretningssituationer, hvor det er vigtigt at kende lovgivningen om AI 

Forretningssituationer, hvor det er vigtigt at kende den juridiske regulering 

Generativ AI, en type af AI, er et nyttigt værktøj, men bærer også risici såsom spredning af misinformation, fremme af kriminalitet, og i nogle tilfælde trusler mod demokratiet.

Disse risici ved AI er nu uundgåelige udfordringer. Derfor vil vi forklare forretningssituationer, hvor det er vigtigt at kende lovgivningen, både fra brugernes og udbydernes perspektiv.

Brug af tekstgenererende AI

Siden lanceringen af ChatGPT i november (2022), har tekstgenererende AI opnået global opmærksomhed som et alsidigt værktøj, der kan håndtere komplekse opgaver, hvilket forventes at forbedre arbejdseffektiviteten og omkostningseffektiviteten.

På den anden side er risiciene ved brug af tekstgenererende AI også blevet kendte. Det er vigtigt at være opmærksom på, hvilke risici der findes, og hvilke love der skal overholdes for at undgå disse potentielle risici.

ChatGPT repræsenterer en risiko for lækage af brugerindtastede oplysninger (prompts), hvis der ikke træffes foranstaltninger. ChatGPT har funktioner til at indsamle, gemme og bruge prompts, hvilket indebærer en risiko for lækage af personlige oplysninger, virksomhedshemmeligheder, og fortrolige oplysninger opnået gennem fortrolighedsaftaler (NDA’er).

Desuden indebærer ChatGPT specifikke risici såsom spredning af misinformation (hallucinationer) og krænkelse af ophavsret. Derfor er det uundværligt at foretage faktatjek af det producerede indhold.

Brug af billedgenererende AI

Når man anvender billedgenererende AI i forretning, er det vigtigt at være opmærksom på risikoen for krænkelse af ophavsret.

Ophavsretten til billeder eller tekster genereret af ChatGPT eller lignende tilhører generelt brugeren. Ifølge OpenAI kan brugerne anvende ChatGPT og lignende til ethvert formål, inklusive kommerciel brug.

Det er dog vigtigt at være opmærksom på følgende: ChatGPT’s træningsdata indeholder en stor mængde indhold offentliggjort på internettet, og det meste af dette indhold er ophavsretligt beskyttet (tekster, billeder, musik, videoer osv.). Derfor kan det indhold, der genereres, potentielt krænke andres ophavsret.

Udvikling af AI og levering af generative AI-tjenester

AI-forretning involverer forskellige love, og da den juridiske ramme globalt er under udvikling, kræves en fleksibel tilgang til at overholde eksisterende love og tilpasse sig nye love.

I det næste kapitel vil vi forklare om japanske love relateret til AI og EU’s “AI Regulation Act”, som blev vedtaget i december (2023), den første af sin slags på internationalt plan.

Japanske love om AI

I Japan er AI i øjeblikket ikke reguleret af love med tvangskraft, men følger en politik om selvregulering. Her vil vi forklare de gældende love, som man bør være opmærksom på, når man anvender AI.

Reference: Ministeriet for Økonomi, Handel og Industri | “Governance Guidelines for the Implementation of AI Principles ver. 1.1″[ja]

Ophavsretsloven

I januar 2019 (Heisei 31) trådte den reviderede ophavsretslov i kraft, hvor der blev indført en ny bestemmelse om begrænsning af rettigheder (undtagelser, hvor licens ikke er nødvendig) for “informationsanalyse” (artikel 30, afsnit 4, punkt 1, nummer 2 i samme lov). Anvendelser, der ikke har til formål at nyde værker udtrykt gennem tanker eller følelser, såsom informationsanalyse i AI-udvikling og læringsfaser, kan nu udføres uden ophavsmandens tilladelse som en generel regel.

Denne ændring har klart defineret, at maskinlæring, inklusive dyb læring af AI, også er inkluderet i “informationsanalyse”.

Anvendelse af informationsanalyse (udtrækning, sammenligning, klassificering eller anden analyse af information relateret til sprog, lyd, billeder eller andre elementer fra en stor mængde værker eller anden information)

Ophavsretsloven artikel 30, afsnit 4, punkt 1, nummer 2

På den anden side skal man være opmærksom på, at værker genereret ved brug af AI, som har ligheder med eller er afhængige af andres ophavsretlige værker, kan udgøre en krænkelse af ophavsretten.

Desuden, hvis man indtaster et ophavsretligt beskyttet værk som en prompt i ChatGPT, kan det medføre krænkelse af reproduktionsretten eller andre rettigheder. Hvis man bruger generativ AI til at ændre andres ophavsretlige værker, kan det også medføre krænkelse af bearbejdelsesretten eller andre rettigheder.

Ifølge OpenAIs brugsvilkår tilhører rettighederne til indhold skabt med ChatGPT brugeren, og kommerciel brug er tilladt, men hvis det er svært at afgøre, om indholdet krænker ophavsretten, anbefales det at konsultere en ekspert.

Hvis en ophavsretsindehaver påpeger en krænkelse af ophavsretten, kan man blive holdt ansvarlig for civilretlige (ophør af brug, erstatning for skader, godtgørelse, genoprettelse af ære osv.) eller strafferetlige forhold.

Loven om forebyggelse af unfair konkurrence

Den 1. juli 2019 (Heisei 31) trådte den reviderede lov om forebyggelse af unfair konkurrence i kraft. Tidligere var det vanskeligt at forhindre unfair konkurrence for objekter, der ikke var beskyttet af patentloven eller ophavsretsloven, eller som ikke faldt ind under “forretningshemmeligheder” i henhold til loven om forebyggelse af unfair konkurrence.

Med denne revision blev der indført civilretlige foranstaltninger (krav om forbud, skøn over erstatningsbeløb osv.) mod ondsindede handlinger såsom uretmæssig erhvervelse eller brug af data med en vis værdi (begrænset adgangsdata).

EU’s lovgivning om brug af AI

EU's juridiske regulering af AI-brug

EU’s retssystem består af tre dele: primær lovgivning (traktater), sekundær lovgivning (EU-lovgivning) og retspraksis. Sekundær lovgivning, som er baseret på primær lovgivning (traktater), består af love og forordninger, der direkte eller indirekte binder medlemsstaterne og kaldes EU-ret (afledt ret). Sekundær lovgivning kan overordnet inddeles i fem typer, men EU’s “AI-regulering” falder under kategorien forordninger (Regulation), hvilket betyder, at det er en ensartet regel, der direkte binder medlemsstaterne.

På den anden side indebærer direktiver (Directive), at EU’s medlemsstater pålægges en indirekte juridisk forpligtelse til at indføre eller ændre national lovgivning for at implementere indholdet af direktivet. Fristen for dette er generelt inden for tre år efter offentliggørelsen i EU’s Tidende.

Relateret artikel: Et must-read for virksomheder, der udvider til Europa: Nøglepunkter om EU’s lovgivning og retssystem[ja]

I dette kapitel vil vi forklare de seneste tendenser inden for “direktiver” og “forordninger” relateret til EU’s juridiske regulering af brugen af AI.

Forslag til AI-ansvarsdirektiv

Den 28. september 2022 offentliggjorde Europa-Kommissionen et forslag til et AI-ansvarsdirektiv sammen med en ændring af “Produktansvarsdirektivet”. Dette fastlægger regler for juridisk ansvar inden for AI-forretninger i EU (Den Europæiske Union), der er i overensstemmelse med “AI-reguleringsloven”, og bliver en vigtig juridisk ramme. Det vil også være underlagt EU’s “Direktiv om kollektive søgsmål”, som træder i kraft fra juni 2023, så det er nødvendigt for relevante japanske virksomheder at forstå dets indhold.

Dette repræsenterer en betydelig ændring af de juridiske regler for civilretligt ansvar relateret til software, herunder AI-systemer i EU, for at tilpasse dem til den digitale tidsalders cirkulære økonomi og globale værdikæder.

Relateret artikel: Status og udsigter for EU’s AI-reguleringslov? Også forklaring på indvirkningen på japanske virksomheder[ja]

Formålet med “Forslaget til AI-ansvarsdirektiv” er at fastsætte regler for civilretligt ansvar baseret på udenfor kontraktlige årsager for skader forårsaget af AI-systemer, for at forbedre markedsfunktionerne inden for EU.

Det betyder, at ansvar baseret på kontrakt (ansvar for manglende opfyldelse af forpligtelser og ansvar for mangler ved opfyldelse af kontrakter) ikke er omfattet, og at det er nødvendigt at være opmærksom på, at skader baseret på uagtsomhed (såsom erstatningsansvar for ulovlige handlinger) er inkluderet, og ikke kun begrænset til dem, der opstår fra utilstrækkelig sikkerhed, som er omfattet af “Produktansvarsdirektivet”.

For eksempel kan skader forårsaget af diskrimination gennem anvendelse af AI-rekrutteringssystemer også være omfattet.

Dette direktivforslag træffer foranstaltninger for at lette bevisbyrden for udviklere af “højrisiko AI-systemer”, som er defineret i “AI-reguleringsloven”, for at tackle problemet med AI’s “black box”, ved at indføre “formodning om årsagssammenhæng” og et “system for bevisfremvisning”.

Hvis man ikke overholder en ordre om bevisfremvisning, pålægger “Forslaget til AI-ansvarsdirektiv” en pligt til at antage overtrædelse af forsigtighedspligt og årsagssammenhæng, mens “Forslaget til ændring af Produktansvarsdirektivet” pålægger en pligt til at antage defekter og årsagssammenhæng, og pålægger strengere straffe end dem, der findes i japansk civilproceslov, for at sikre overholdelse.

Dette direktivforslag er i første omgang begrænset til at lette bevisbyrden i forbindelse med AI’s “black box” og de dertilhørende foranstaltninger, og indfører nye bestemmelser om kvalifikation til at anlægge sag, bevisfremvisning, bevisbevarelse og formodning om årsagssammenhæng, med specifikke krav fastsat for hver.

Anden fase omhandler revision og evaluering. Europa-Kommissionen vil etablere et overvågningsprogram, gennemgå information om hændelser, evaluere hensigtsmæssigheden af at pålægge ansvar uden skyld (strengt ansvar) på operatører af højrisiko AI-systemer og nødvendigheden af at indføre obligatorisk forsikring blandt andre foranstaltninger, og rapportere til Det Europæiske Råd og Europa-Parlamentet m.fl.

Ændringsforslag til direktivet om produktansvar

“Direktivet om produktansvar” er en EU-lov, der blev vedtaget i 1985 for at beskytte forbrugerne. Den fastlægger producentens ansvar, når en forbruger lider skade som følge af et defekt produkt.

I ændringsforslaget bliver “software” tilføjet som en ny kategori af “produkter”, der er omfattet af produktansvar. Hvis der findes en “defekt” i en AI-system, som er en type software, vil der blive anvendt et ansvar uden skyld over for operatøren af AI-systemet. Desuden er der tilføjet nye kriterier for at afgøre, om der foreligger en “defekt”, herunder evnen til fortsat læring efter installation og softwareopdateringer.

I den nuværende japanske lov om produktansvar betragtes software generelt ikke som en bevægelig ting, og derfor falder den ikke ind under de “produkter”, som loven dækker. Ændringsforslaget ændrer dog på dette ved at tilpasse begrebet “produkt”. Det introducerer også “foranstaltninger til at lette bevisbyrden”, hvilket potentielt kan have en stor indvirkning på software, herunder AI-systemer og avancerede teknologiprodukter.

AI-reguleringsloven

“AI-reguleringsloven (AI Act)” er en omfattende EU-forordning (sekundær lovgivning) rettet mod AI-virksomheder, bestående af 85 artikler og er den første internationale lov til at regulere AI. Den blev vedtaget den 9. december 2023 efter en foreløbig aftale mellem Europa-Kommissionen, Europa-Parlamentet og Rådet for Den Europæiske Union. Den forventes at træde i kraft og blive fuldt implementeret i 2024.

Dette lovgivningsinitiativ udgør kernen i EU’s digitale strategi kendt som “Et Europa klædt på til den digitale tidsalder” og sigter mod at tackle nye udfordringer og risici i den hastigt udviklende digitale æra. Det er en del af et bredt AI-pakke, der sigter mod at sikre sikkerheden og de grundlæggende rettigheder ved AI, samt at styrke indsatsen, investeringerne og innovationen inden for AI i hele EU.

EU’s “AI-reguleringslov” finder direkte anvendelse på medlemsstaterne, men har også ekstraterritorial anvendelse, hvilket betyder, at den også gælder for virksomheder uden for EU, der opererer inden for EU’s grænser.

Ved overtrædelse kan der pålægges betydelige bøder baseret på den globale omsætning (op til 30 millioner euro eller 6% af den globale omsætning, afhængigt af hvad der er højst), hvilket kan resultere i, at virksomheder ikke længere kan drive AI-forretning inden for EU.

Derfor kræves der en tilpasning til EU’s nye AI-regulering fra virksomheder, der allerede har implementeret AI på det europæiske marked, inklusiv japanske virksomheder, samt dem, der overvejer at træde ind på EU-markedet.

Kernen i “AI-reguleringsloven” består af tre hovedelementer: “Risikobaseret AI-klassificering”, “Krav og forpligtelser” og “Støtte til innovation”.

Reguleringen gælder for virksomheder, der introducerer AI-systemer og -tjenester på det europæiske marked, herunder AI-udviklere, deployere, udbydere, importører, forhandlere og brugere.

AI’s risikoniveau vil blive kategoriseret i fire niveauer, og reguleringen vil blive anvendt i overensstemmelse hermed. For at opnå AI-principperne er det også afgørende at sikre AI-literacy blandt AI-udviklere, brugere og udbydere, som det klart fremgår af retningslinjerne. For mere information, se den relaterede artikel.

Relateret artikel: Status og udsigter for AI-regulering i EU? Effekten på japanske virksomheder forklaret[ja]

Vigtige overvejelser vedrørende lovgivning om AI

Vigtige overvejelser vedrørende lovgivning om AI

I dette afsnit vil vi primært diskutere de juridiske overvejelser, virksomheder bør gøre sig, når de ønsker at anvende generativ AI.

Ophavsret for AI-genererede værker

Når det kommer til værker genereret af generativ AI, er der flere juridiske spørgsmål at overveje:

  • Om værket krænker ophavsretten
  • Om der kan tildeles ophavsret til værker genereret af AI

Som nævnt tidligere, hvis et værk genereret af ChatGPT har ligheder med eller er afhængigt af et eksisterende værk, kan det udgøre en krænkelse af ophavsretten. Men kan værker skabt af generativ AI tildeles ophavsret?

Ifølge ophavsretsloven defineres et “værk” som en “kreativ udtryksform for tanker eller følelser”. Da AI ikke besidder tanker eller følelser, argumenteres det, at indhold skabt af generativ AI ikke kan tildeles ophavsret.

På den anden side, da processen med at generere indhold ved hjælp af AI kan være en “black box” (hvor beslutningsprocessen er uigennemsigtig) for brugeren, kan det være yderst vanskeligt at få AI til at producere det ønskede indhold. Derfor, hvis der er en vis grad af originalitet og kreativitet fra brugeren i prompten, kan det argumenteres, at brugerens “tanker eller følelser” er “kreativt udtrykt” gennem generativ AI, hvilket potentielt kan berettige til ophavsret.

Håndtering af personlige oplysninger ved brug af AI

Når man anvender AI, er det vigtigt at være opmærksom på potentielle overtrædelser af loven om beskyttelse af personoplysninger. Det er nødvendigt at træffe foranstaltninger, såsom ikke at indtaste personlige eller privatlivsrelaterede oplysninger.

Hvis personlige oplysninger indtastes i prompten, kan det betragtes som en tredjeparts overførsel af personlige oplysninger til tjenesteudbyderen. Generelt kræves den registreredes samtykke for at overføre personlige oplysninger til tredjepart, så uden dette samtykke kan det udgøre en overtrædelse af loven om beskyttelse af personoplysninger.

I tilfælde af ChatGPT, selv hvis personlige oplysninger ved et uheld indtastes, er systemet designet til ikke at kunne udskrive disse oplysninger. Dette skyldes OpenAI’s politik om ikke at gemme eller spore personlige oplysninger, men det er vigtigt at bemærke, at andre tjenester eller platforme kan have forskellige politikker, så vær forsigtig.

Risikostyring for virksomheder, der arbejder med AI

Risikostyring varierer afhængigt af virksomhedens forretningsstrategi, formålet med brugen af AI, og de relevante lovgivningsmæssige krav, så det er vigtigt at træffe de rette risikostyringsforanstaltninger, der passer til situationen og målet.

For virksomheder, der anvender generativ AI, er det vigtigt at overveje følgende punkter for at minimere risici:

  1. Personaleudvikling: Korrekt brug af generativ AI kræver specialiseret viden og færdigheder. Det er vigtigt at sikre, at medarbejderne forstår den korrekte anvendelse gennem uddannelse og træning.
  2. Udarbejdelse, implementering og drift af interne retningslinjer: Ved at udarbejde og håndhæve interne retningslinjer for brugen af generativ AI kan risici reduceres.
  3. Opbygning af en fremmende organisation for anvendelse og risikostyring: Det er effektivt at etablere en organisation, der fremmer anvendelsen af generativ AI, og at placere et team inden for organisationen, der er ansvarlig for risikostyring.
  4. Systemimplementering: For korrekt at implementere generativ AI er det nødvendigt omhyggeligt at vælge og designe systemet.

Desuden diversificerer risiciene forbundet med brugen af generativ AI, herunder risici som datalækage, krænkelser af rettigheder og privatliv, bekymringer om informationens nøjagtighed og sikkerhed, samt risikoen for bias. For at undgå disse risici er det afgørende at indføre en passende governance og risikostyringsramme.

Relateret artikel: “Risici ved virksomheders implementering af ChatGPT. En gennemgang af tilfælde og foranstaltninger mod læk af fortrolige oplysninger”[ja]

Konklusion: AI-lovgivningen er under udvikling, så det er nødvendigt at holde sig ajour

AI-lovgivningen, herunder verdens første internationale “AI-regulativ” i EU (vedtaget den 9. december 2023), er stadig under udvikling. Derfor kræves det, at virksomheder overholder eksisterende lovgivning, samtidig med at de er fleksible over for nye love.

I Japan findes der endnu ingen love, der direkte regulerer AI, men det er vigtigt at forstå og korrekt håndtere relaterede love såsom ophavsretsloven, loven om beskyttelse af personlige oplysninger og loven mod urimelig konkurrence. Desuden er det nødvendigt at holde øje med fremtidige ændringer i relateret lovgivning og reagere hurtigt.

Vores foranstaltninger hos Monolith Advokatfirma

Monolith Advokatfirma er et advokatfirma med omfattende erfaring inden for IT, især internettet og juraen. AI-forretninger medfører mange juridiske risici, og support fra advokater, der er eksperter i juridiske spørgsmål relateret til AI, er afgørende.

Vores firma tilbyder avanceret juridisk support til AI-forretninger, herunder ChatGPT, gennem et team af advokater og ingeniører, der er eksperter i AI. Vi leverer tjenester såsom udarbejdelse af kontrakter, vurdering af lovligheden af forretningsmodeller, beskyttelse af intellektuel ejendomsret og håndtering af privatlivsspørgsmål. Yderligere detaljer er angivet i nedenstående artikel.

Behandlingsområder hos Monolith Advokatfirma: AI (herunder ChatGPT) juridiske tjenester[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Tilbage til toppen