Hva er statusen for lovgivning som regulerer AI? En sammenligning og forklaring på tiltakspunkter mellom Japan og EU
Generativ AI, som ChatGPT, har blitt en stor trend. Nå som generativ AI blir integrert i forretningsmiljøer, blir det omtalt som katalysatoren for den fjerde AI-bølgen. I takt med dette, fremmes også utviklingen av en global juridisk rammeverk for å regulere AI.
I denne artikkelen vil vi diskutere lover relatert til AI, og forklare håndteringen av konfidensiell informasjon som intellektuell eiendom og personopplysninger.
Definisjon og historie av AI (kunstig intelligens)
AI (artificial intelligence) refererer til “kunstig intelligens”. Juridisk sett finnes det ingen streng definisjon, og det er mange forskjellige definisjoner. Her er noen eksempler.
Kilde | Definisjon / Forklaring |
「Kōjien」 | Et datamaskinsystem utstyrt med intellektuelle funksjoner som resonnement og dømmekraft. |
「Britannica Encyclopaedia」 | Vitenskap og teknologi > Datamaskiner & AI. Evnen som digitale datamaskiner eller dataroboter har til å utføre oppgaver relatert til intelligent eksistens. |
Artikkel fra Japanese Society for Artificial Intelligence 「AI som allmennkunnskap」 | Svaret på spørsmålet “Hva er AI?” er ikke enkelt. Det er stor debatt blant eksperter på AI, og forskjellene i synspunkter er så store at de alene kunne fylle en hel bok. Imidlertid, hvis man skulle trekke ut et felles element og oppsummere det i ett ord, kunne det sies å være “teknologien som mekanisk realiserer den samme intellektuelle arbeidsprosessen som mennesker.” |
Akademisk artikkel 「Dyp læring og kunstig intelligens」 | AI er et forskningsfelt som forsøker å konstruktivistisk forstå mekanismene bak menneskelig intelligens |
Akademisk artikkel 「På jakt etter en ideell form for et samfunn med kunstig intelligens」 | AI og annen informasjonsteknologi er i bunn og grunn verktøy |
AI beskrives som en rekke teknologier, programvaregrupper, datasystemer og algoritmer som reproduserer menneskelig intellektuell kapasitet på en datamaskin.
Blant de ledende spesialiserte AI-ene kan følgende nevnes:
- Naturlig språkbehandling (maskinoversettelse, syntaksanalyse, morfologisk analyse, RNN osv.)
- Ekspertsystemer som imiterer eksperters resonnement og dømmekraft
- Bilde- og stemmegjenkjenning som oppdager og ekstraherer spesifikke mønstre fra data
Forskning og utvikling innen AI har pågått siden datamaskinenes daggry på 1950-tallet, med den første AI-boomen som varte til 1970-tallet fokusert på “søking og resonnement”, og den andre AI-boomen på 1980-tallet drevet av forskning på “kunnskapsrepresentasjon” som førte til fødselen av ekspertsystemer, og skapte to paradigmeskifter.
Med introduksjonen av big data på 2000-tallet og anerkjennelsen av dyp læring (dyp læring) i bildebehandling verden over etter lanseringen av Alexnet i 2012, ble forskningen raskt mer aktiv, og den tredje AI-boomen begynte.
Mellom 2016 og 2017 ble AI som implementerte dyp læring (dyp læring) og forsterket læring (Q-læring, policy gradient metoder) introdusert.
Den tredje AI-boomens hovedrevolusjoner er tydelige innen naturlig språkbehandling og bildebehandling via sensorer, men har også hatt stor innvirkning på felt som teknologiutvikling, sosiologi, etikk og økonomi.
Den 30. november 2022 ble ChatGPT, en generativ AI for naturlig språkbehandling lansert av OpenAI, raskt populær som et allsidig verktøy, noe som førte til en økning i generativ AI-virksomhet. Noen kaller dette fenomenet for den fjerde AI-boomen.
Forretningssituasjoner der man bør sjekke lovgivningen om AI
Generativ AI, en type AI, er et nyttig verktøy, men det bærer også risikoer som spredning av feilinformasjon, fremming av kriminalitet, og i noen tilfeller, trusler mot demokratiet.
Disse risikoene ved AI har nå blitt en uunngåelig utfordring. Derfor vil vi forklare forretningssituasjoner der det er nødvendig å sjekke lovgivningen, fra både brukernes og leverandørenes perspektiv.
Bruk av tekstgenererende AI
Siden lanseringen av ChatGPT i november (2022), har tekstgenererende AI fått global oppmerksomhet som et allsidig verktøy som kan håndtere komplekse forespørsler, med potensial for å effektivisere arbeid og tilby høy kostnadseffektivitet.
Samtidig har risikoene forbundet med bruk av tekstgenererende AI blitt mer kjent. Det er viktig å være oppmerksom på hvilke risikoer som finnes og hvilke lover som må følges for å unngå dem.
ChatGPT, som representerer tekstgenererende AI, har en risiko for lekkasje av informasjon (prompts) som brukerne legger inn, hvis ingen tiltak blir tatt. ChatGPT har funksjoner for å samle, lagre og bruke prompts, noe som betyr at det er en risiko for lekkasje av personlig informasjon, bedriftshemmeligheter, og konfidensiell informasjon oppnådd gjennom ikke-offentliggjøringsavtaler (NDA).
I tillegg innebærer ChatGPT risikoer som spredning av feilinformasjon (hallusinasjoner), brudd på opphavsrett, og andre risikoer. Derfor er det essensielt å utføre faktasjekk på det som blir produsert.
Bruk av bildegenererende AI
Når man bruker bildegenererende AI i forretninger, må man være oppmerksom på risikoen for brudd på opphavsrett.
Opphavsretten til bilder og tekst generert av ChatGPT og lignende tilhører i utgangspunktet brukeren som genererte dem. Ifølge OpenAI kan brukerne bruke ChatGPT og lignende for alle formål, inkludert kommersiell bruk.
Men det er viktig å være oppmerksom på følgende punkter ved bruk:
ChatGPTs treningsdata inneholder en stor mengde innhold som er offentliggjort på internett, og det meste av dette innholdet er opphavsrettsbeskyttet (tekst, bilder, musikk, videoer osv.). Derfor kan innhold som er generert, potensielt krenke andres opphavsrett.
Utvikling av AI og tilbydelse av generative AI-tjenester
AI-virksomhet involverer en rekke lover, og det er en global trend mot å etablere juridiske rammeverk, så det kreves en fleksibel tilnærming til å overholde eksisterende lover samtidig som man tilpasser seg nye lover.
I neste kapittel vil vi forklare om japanske lover relatert til AI og den internasjonale EU “AI Regulation Act” som ble vedtatt i desember (2023).
Japanske lover relatert til AI
I Japan er det for øyeblikket ingen lover med tvangskraft som regulerer AI, og tilnærmingen baserer seg på selvregulering. Her vil vi forklare gjeldende lover som bør tas i betraktning når man benytter AI.
Referanse: Det japanske departementet for økonomi, handel og industri | “Retningslinjer for styring av AI-prinsipper versjon 1.1″[ja]
Opphavsrettsloven
Den reviderte opphavsrettsloven, som trådte i kraft i januar 2019 (Heisei 31), introduserte en ny bestemmelse om rettighetsbegrensninger (unntak hvor tillatelse ikke er nødvendig) for “informasjonsanalyse” (artikkel 30-4, paragraf 1, punkt 2). Bruk av verk som ikke har som mål å nyte verkets uttrykte tanker eller følelser, som for eksempel informasjonsanalyse i AI-utvikling og læringsfaser, kan nå gjøres uten opphavspersonens tillatelse.
Denne endringen har klargjort at maskinlæring, inkludert dyp læring i AI, faller under definisjonen av “informasjonsanalyse”.
Informasjonsanalyse (å trekke ut informasjon relatert til språk, lyd, bilder og andre elementer fra et stort antall verk eller annen omfattende informasjon, og utføre sammenligning, klassifisering eller annen analyse)
Opphavsrettsloven artikkel 30-4, paragraf 1, punkt 2
Det er imidlertid viktig å være oppmerksom på at verk produsert ved bruk av AI kan anses som brudd på opphavsretten hvis de viser likhet eller avhengighet til andres verk.
Videre kan inntasting av et verk i ChatGPT som en prompt resultere i brudd på reproduksjonsrettigheter eller andre rettigheter. Bruk av generativ AI for å modifisere andres verk kan også medføre brudd på bearbeidelsesrettigheter.
Ifølge OpenAIs bruksvilkår tilhører rettighetene til innhold skapt med ChatGPT brukeren, og kommersiell bruk er tillatt. Men hvis det er vanskelig å avgjøre om innholdet bryter med opphavsretten, anbefales det å konsultere en ekspert.
Skulle en opphavsperson påpeke brudd på opphavsretten, kan det føre til sivilt ansvar (forbud mot bruk, erstatningskrav, oppreisning, gjenopprettelse av ære osv.) eller strafferettslig ansvar.
Loven om forebygging av urettferdig konkurranse
Den reviderte loven om forebygging av urettferdig konkurranse trådte i kraft 1. juli 2019 (Heisei 31). Tidligere var det vanskelig å forhindre urettferdig konkurranse for objekter som ikke var beskyttet av patentloven eller opphavsrettsloven, eller som ikke falt under definisjonen av “forretningshemmeligheter” i loven om forebygging av urettferdig konkurranse.
Med denne revisjonen ble det innført sivile tiltak (krav om opphør, antatt erstatningsbeløp osv.) mot ondsinnet atferd som urettmessig tilegnelse eller bruk av data med en viss verdi (begrenset tilgjengelige data).
Lovgivning om bruk av AI i EU
EU sitt rettssystem består av tre deler: primærrett (traktater), sekundærrett (EU-lovgivning) og rettspraksis. Sekundærrett, som er basert på primærrett (traktater), består av lovgivning som direkte eller indirekte binder medlemslandene og kalles EU-retten (avledet rett). Sekundærretten kan deles inn i fem hovedtyper, men EU sin “AI-reguleringslov” faller under kategorien forordninger (Regulation), som er uniforme regler som direkte binder medlemslandene.
På den annen side innebærer direktiver (Directive) at EU-medlemslandene pålegges en indirekte juridisk forpliktelse til å innføre eller endre nasjonal lovgivning for å implementere innholdet i direktivet. Fristen for dette er vanligvis innen tre år etter offentliggjøring i EU-tidende.
Relatert artikkel: Et must for bedrifter som utvider til Europa – Nøkkelpunkter om EU-lovgivning og rettssystem[ja]
I dette kapittelet vil vi forklare de siste trendene innen juridiske reguleringer relatert til bruk av AI i EU, med fokus på “direktiver” og “forordninger”.
Forslag til AI-ansvarsdirektiv
Den 28. september 2022 publiserte Europakommisjonen et forslag til AI-ansvarsdirektiv sammen med en revidert versjon av “Produktansvarsdirektivet”. Dette etablerer regler om juridisk ansvar for AI-virksomheter i EU som er i samsvar med “AI-reguleringsloven”, og vil tjene som et viktig juridisk rammeverk. Det vil også være underlagt EU’s “Direktiv om kollektive søksmål” som trer i kraft i juni 2023, noe som betyr at relevante japanske selskaper også bør gjøre seg kjent med innholdet.
Dette representerer en betydelig endring i de juridiske reglene om sivilansvar for programvare, inkludert AI-systemer i EU, tilpasset den digitale tidsalderens sirkulære økonomi og globale verdikjeder.
Relatert artikkel: Status og utsikter for AI-regulering i EU? Effekten på japanske selskaper forklart[ja]
Målet med “Forslaget til AI-ansvarsdirektiv” er å fastsette regler for sivilansvar basert på ikke-kontraktsmessige forhold for skader forårsaket av AI-systemer, for å forbedre markedets funksjon i EU.
Det betyr at ansvar basert på kontrakt (som ansvar for manglende oppfyllelse eller mangler ved oppfyllelse) ikke er inkludert, men det er viktig å merke seg at skader som skyldes uaktsomhet (som ansvar for ulovlige handlinger) er inkludert, og ikke begrenset til de som oppstår fra produkter med utilstrekkelig sikkerhet.
For eksempel kan skader forårsaket av diskriminering gjennom bruk av AI-rekrutteringssystemer også være inkludert.
Dette direktivforslaget tar for seg problemet med AI som en “black box” ved å innføre tiltak for å redusere bevisbyrden for utviklere av “høyrisiko AI-systemer” som er definert i “AI-reguleringsloven”, inkludert “antagelse om årsakssammenheng” og et nytt system for bevisfremleggelse.
Hvis man ikke etterkommer en ordre om bevisfremleggelse, vil “Forslaget til AI-ansvarsdirektiv” kreve at man antar brudd på omsorgsplikten og årsakssammenheng, mens den reviderte “Produktansvarsdirektivet” vil kreve at man antar mangler og årsakssammenheng, og pålegge strengere straffer enn det japanske sivilprosessloven gjør, for å sikre etterlevelse.
Dette direktivforslaget er i første omgang begrenset til tiltak for å redusere bevisbyrden knyttet til AI’s “black box”-natur, og etablerer nye bestemmelser for søksmålskompetanse, bevisfremleggelse, bevisbevaring, og antagelse om årsakssammenheng.
Den andre fasen omhandler gjennomgang og evaluering. Europakommisjonen vil sette opp et overvåkningsprogram for å gjennomgå informasjon om hendelser, vurdere hensiktsmessigheten av å pålegge strengt ansvar (uten skyld) på operatører av høyrisiko AI-systemer, og nødvendigheten av obligatorisk forsikring, samt vurdere ytterligere tiltak og rapportere til Europarådet og Europaparlamentet.
Endringsforslag til direktivet om produktansvar
“Direktivet om produktansvar” er en EU-lov som ble vedtatt i 1985 for å beskytte forbrukere, og den definerer produsentens ansvar når forbrukere lider skade på grunn av defekte produkter.
I endringsforslaget blir “programvare” nytt tillegg til definisjonen av “produkter” som omfattes av produktansvaret, og hvis det er en “defekt” i en AI-systemtype programvare, vil det bli anvendt et ansvar uten skyld på operatørene av AI-systemet. Videre er kriteriene for å bestemme om det foreligger en “defekt” nå utvidet til å inkludere evnen til kontinuerlig læring etter installasjon og programvareoppdateringer.
I den gjeldende japanske loven om produktansvar, anses generelt ikke programvare som løsøre, og derfor faller det utenfor definisjonen av “produkter” som loven gjelder for. Imidlertid tar endringsforslaget hensyn til å endre konseptet av “produkter”. Dette forslaget introduserer også “tiltak for å lette bevisbyrden”, som kan ha en betydelig innvirkning på programvare som AI-systemer og avanserte teknologiprodukter.
AI-reguleringsloven
“AI-reguleringsloven (AI Act)” er en omfattende EU-forordning (sekundærlovgivning) som tar for seg AI-virksomheter, og består av 85 artikler. Dette er den første internasjonale loven som regulerer AI, vedtatt etter en foreløpig avtale mellom Europakommisjonen, Europaparlamentet og Det europeiske råd den 9. desember 2023. Den forventes å tre i kraft og bli fullt implementert i 2024.
Dette lovverket er en kjernekomponent i EUs digitale strategi, kjent som “Et Europa klart for den digitale tidsalder”, og sikter mot å adressere nye utfordringer og risikoer i den stadig utviklende digitale æraen. Det er også en del av et bredt AI-pakke som sikter mot å garantere sikkerheten og de grunnleggende rettighetene ved AI, samt å styrke innsatsen, investeringene og innovasjonen rundt AI i hele EU.
EU sin “AI-reguleringslov” vil direkte gjelde for medlemslandene, samt ha ekstraterritoriell anvendelse for virksomheter som opererer innenfor EU, og vil også gjelde for virksomheter basert utenfor EU.
Ved brudd på loven kan det pålegges betydelige bøter basert på global omsetning (opp til 30 millioner euro, tilsvarende omtrent 4,7 milliarder norske kroner, eller 6% av den globale omsetningen, avhengig av hva som er høyest), noe som kan risikere å utelukke virksomheter fra å drive AI-virksomhet innenfor EU.
Derfor kreves det at bedrifter, inkludert de fra Japan, som allerede har implementert AI i EU-markedet eller vurderer å gå inn i EU-markedet, tilpasser seg de nye AI-reguleringene i EU.
Kjernen i “AI-reguleringsloven” kan deles inn i tre hovedtrekk: “risikobasert AI-klassifisering”, “krav og forpliktelser”, og “støtte til innovasjon”.
Reguleringen gjelder for virksomheter som lanserer AI-systemer eller -tjenester i det europeiske markedet, inkludert AI-utviklere, deployere, leverandører, importører, forhandlere og brukere.
AI-risikonivået vil bli kategorisert i fire nivåer, med tilhørende reguleringer. For å oppnå AI-prinsippene, er det også avgjørende med tiltak for å sikre AI-literacy blant AI-utviklere, brukere og leverandører. For mer informasjon, se relaterte artikler.
Relaterte artikler: Status og utsikter for AI-regulering i EU? Effekten på japanske selskaper forklart[ja]
Viktige punkter å merke seg om lover relatert til AI
I dette kapittelet vil vi hovedsakelig diskutere juridiske hensyn når bedrifter ønsker å bruke generativ AI.
Om opphavsrett til AI-genererte verk
Når det gjelder AI-genererte verk, er det flere juridiske spørsmål som bør vurderes.
- Om verket bryter med opphavsretten
- Om AI-genererte verk kan gis opphavsrett
Som nevnt tidligere, hvis et verk generert av ChatGPT har likheter eller er avhengig av et eksisterende opphavsrettsbeskyttet verk, kan det anses som en opphavsrettskrenkelse. På den annen side, kan verk skapt av generativ AI gis opphavsrett?
Ifølge opphavsrettsloven defineres et “verk” som “en original uttrykk for tanker eller følelser”. Siden AI ikke har tanker eller følelser, kan det argumenteres for at innhold skapt av generativ AI ikke kan gis opphavsrett.
Imidlertid, siden prosessen med å generere innhold ved hjelp av AI kan være en “black box” (en prosess som er uklar for brukeren), kan det være svært vanskelig for brukere å få AI til å produsere innholdet de ønsker. Derfor, i tilfeller der brukerens kreativitet kan anerkjennes i prompt-stadiet, kan det argumenteres for at brukerens “tanker eller følelser” har blitt “kreativt uttrykt” gjennom generativ AI, og opphavsrett kan dermed gis.
Om håndtering av personopplysninger ved bruk av AI
Når man bruker AI, er det viktig å være oppmerksom på potensielle brudd på personvernlovgivningen. Det er nødvendig med tiltak for å unngå inntasting av personopplysninger og informasjon relatert til personvern.
Hvis personopplysninger blir inntastet i prompten, kan det anses som en tredjeparts overføring av personopplysninger til tjenesteleverandøren. Generelt kreves det samtykke fra den registrerte for å overføre personopplysninger til tredjeparter, så uten dette samtykket kan det være et brudd på personopplysningsloven.
I ChatGPT, selv om personopplysninger ved et uhell blir inntastet, er systemet designet slik at det ikke kan produsere disse opplysningene i chatten. Dette er i tråd med OpenAIs policy om ikke å lagre eller spore personopplysninger, men det er viktig å være oppmerksom på at andre tjenester eller plattformer kan operere annerledes.
Risikotiltak for bedrifter som involverer seg i AI
Risikotiltak varierer avhengig av bedriftens forretningsstrategi, formålet med bruk av AI, og relevante lovreguleringer. Derfor er det viktig å iverksette passende risikotiltak som samsvarer med situasjonen og målene.
For bedrifter som utnytter generativ AI, er det viktig å ta hensyn til følgende punkter for å minimere risiko:
- Personellutvikling: Riktig bruk av generativ AI krever spesialisert kunnskap og ferdigheter. Det er viktig å sørge for at ansatte forstår hvordan de skal bruke det på riktig måte gjennom opplæring og trening.
- Utvikling, implementering og drift av interne retningslinjer: Ved å utvikle og få ansatte til å følge interne retningslinjer for bruk av generativ AI, kan risiko reduseres.
- Opprettelse av en organisasjon for fremming og risikotiltak: Det er effektivt å etablere en organisasjon som fremmer bruk av generativ AI og plassere et team innad i organisasjonen som håndterer risikostyring.
- Systemimplementering: For å implementere generativ AI på riktig måte, er det nødvendig å nøye velge og designe systemet.
I tillegg diversifiseres risikoene forbundet med bruk av generativ AI, inkludert risiko for informasjonslekkasje, brudd på rettigheter og personvern, bekymringer knyttet til informasjonens nøyaktighet og sikkerhet, og risiko for bias. For å unngå disse risikoene, er det avgjørende å innføre et passende styrings- og risikostyringsrammeverk.
Relatert artikkel: “Risiko ved bedriftsimplementering av ChatGPT. Forklaring av tilfeller og tiltak mot lekkasje av konfidensiell informasjon”[ja]
Oppsummering: AI-lovgivningen er under utvikling, så det er nødvendig å holde seg oppdatert
AI-relatert lovgivning, inkludert verdens første internasjonale “AI-reguleringslov” vedtatt i EU (9. desember 2023), er fortsatt under utvikling. Dette krever at bedrifter overholder eksisterende lover samtidig som de tilpasser seg nye lover fleksibelt.
I Japan finnes det ennå ingen lover som direkte regulerer AI, men det er viktig å forstå og korrekt håndtere relaterte lover som opphavsrettsloven, loven om beskyttelse av personopplysninger, og loven mot urimelig konkurranse. Det er også nødvendig å følge med på fremtidige endringer i disse lovene og reagere raskt.
Veiledning om tiltak fra vår advokatfirma
Monolith advokatfirma har rik erfaring med IT, spesielt internett og jus. AI-virksomhet medfører mange juridiske risikoer, og støtte fra advokater som er godt kjent med juridiske problemer relatert til AI, er avgjørende.
Vårt firma tilbyr avansert juridisk støtte for AI-virksomheter, inkludert ChatGPT, gjennom et team av advokater og ingeniører som er eksperter på AI. Dette inkluderer opprettelse av kontrakter, vurdering av lovligheten av forretningsmodeller, beskyttelse av immaterielle rettigheter, og håndtering av personvern. Du finner mer informasjon i artikkelen nedenfor.
Områder Monolith advokatfirma dekker: AI (inkludert ChatGPT) juridiske tjenester[ja]
Category: IT