Vad är det aktuella läget för lagar som reglerar AI? En jämförelse mellan Japan och EU och punkter för motåtgärder förklaras
Generativ AI, såsom ChatGPT, har blivit en stor trend. Denna typ av AI, som nu även implementeras i affärsvärlden, kallas för “den fjärde AI-boomen”. I takt med detta pågår även ett globalt arbete med att skapa en juridisk ram för att reglera AI.
I denna artikel kommer vi att ta upp lagar relaterade till AI och förklara hur man på ett lämpligt sätt hanterar konfidentiell information såsom immateriella rättigheter och personuppgifter.
Definition och historia av AI (Artificiell Intelligens)
AI (artificial intelligence) avser “artificiell intelligens”. Juridiskt sett finns det ingen strikt definition, och olika definitioner har föreslagits. Här är några exempel.
Källa | Definition/Förklaring |
“Kōjien” | En datorsystem utrustad med intellektuella funktioner såsom resonemang och bedömning. |
“Britannica Encyklopedi” | Vetenskap och teknik > Datorer & AI. Förmågan (ability) för digitala datorer eller datorrobotar att utföra uppgifter relaterade till intelligent existens. |
Artikel från Japanese Society for Artificial Intelligence “AI som allmänbildning” | Svaret på frågan “Vad är AI?” är inte enkelt. Det finns stora debatter bland AI-experter, och åsikterna skiljer sig så mycket att det kan fylla en hel bok. Gemensamt kan det sammanfattas som “tekniken för att mekaniskt realisera samma intellektuella arbete som människor gör”. |
Vetenskaplig artikel “Deep Learning och Artificiell Intelligens” | AI är ett vetenskapligt fält som strävar efter att konstruktivistiskt förklara hur mänsklig intelligens fungerar. |
Vetenskaplig artikel “Mot en önskvärd form av ett samhälle med artificiell intelligens” | AI och andra informationsteknologier är i slutändan bara verktyg. |
AI beskrivs som en mängd olika tekniker, mjukvaror, datorsystem och algoritmer som återskapar mänsklig intellektuell förmåga på datorer.
Bland de ledande specialiserade AI-teknikerna finns följande:
- Naturlig språkbehandling (maskinöversättning, syntaktisk analys, morfologisk analys, RNN, etc.)
- Expertsystem som imiterar experters resonemang och bedömning
- Bild- och taligenkänning som upptäcker och extraherar specifika mönster från data
Forskning och utveckling inom AI har pågått sedan datorernas gryning på 1950-talet, med den första AI-boomen som sträckte sig till 1970-talet fokuserad på “sökning och resonemang”. Den andra AI-boomen på 1980-talet fokuserade på “kunskapsrepresentation” och ledde till skapandet av expertsystem, vilket utlöste två paradigmboomer.
Med introduktionen av stordata på 2000-talet och erkännandet av djupinlärningens (deep learning) användbarhet i bildbehandling världen över efter lanseringen av Alexnet 2012, accelererade forskningen snabbt, och den tredje AI-boomen inleddes.
Mellan 2016 och 2017 introducerades AI som använder djupinlärning och förstärkningsinlärning (Q-lärande, policy gradient-metoder).
Den tredje AI-boomens huvudrevolutioner inkluderar naturlig språkbehandling och bildbehandling via sensorer, men den har också haft stor inverkan på teknikutveckling, sociologi, etik och ekonomi.
Den 30 november 2022 lanserade OpenAI ChatGPT, en AI för generering av naturligt språk, som snabbt blev ett uppmärksammat universellt verktyg och stimulerade affärer inom generativ AI. Vissa kallar detta fenomen för den fjärde AI-boomen.
Affärssituationer där man bör kontrollera lagar relaterade till AI
Generativ AI, en typ av AI, är ett användbart verktyg men innehåller samtidigt risker såsom spridning av felinformation, främjande av brottslighet och i vissa fall hot mot demokratin.
Dessa risker med AI har nu blivit en oundviklig utmaning. Därför kommer vi att förklara affärssituationer där det är viktigt att kontrollera lagstiftningen, både från användarens och leverantörens perspektiv.
Användning av textgenererande AI
Sedan lanseringen av ChatGPT i november (2022), har textgenererande AI fått global uppmärksamhet som ett mångsidigt verktyg som kan hantera komplexa förfrågningar, vilket möjliggör effektivisering av arbete och hög kostnadseffektivitet.
Samtidigt har riskerna med att använda textgenererande AI blivit kända. För att undvika dessa potentiella risker är det viktigt att vara medveten om vilka risker som finns och vilka lagar som måste följas.
ChatGPT, som representerar textgenererande AI, innebär en risk för läckage av information (prompter) som användaren matar in om inga åtgärder vidtas. ChatGPT har funktioner för att samla in, lagra och använda prompter, vilket innebär att det finns en risk för läckage av personlig information, företagshemligheter och information som erhållits genom sekretessavtal (NDA) och annan konfidentiell information.
Dessutom innebär ChatGPT specifika risker såsom spridning av felaktig information (hallucinationer) och upphovsrättsintrång. Därför är det nödvändigt att inte försumma faktakontroll av det som produceras.
Användning av bildgenererande AI
När man använder bildgenererande AI i affärer måste man vara medveten om risken för upphovsrättsintrång.
Upphovsrätten till bilder och texter som genereras av ChatGPT och liknande tillhör i grunden användaren. Enligt OpenAI kan användare använda ChatGPT och liknande för alla ändamål, inklusive kommersiellt bruk.
Det är dock viktigt att vara uppmärksam på följande punkter vid användning:
ChatGPT:s träningsdata innehåller en stor mängd innehåll som är tillgängligt på internet, och det mesta av detta innehåll är upphovsrättsskyddat (text, bilder, musik, videor etc.). Därför finns det en risk att det innehåll som genereras kan intrånga på andras upphovsrätt.
Utveckling av AI och tillhandahållande av generativa AI-tjänster
AI-affärer involverar en mängd olika lagar, och det pågår en global utveckling av rättsliga ramar. Därför krävs en flexibel inställning för att följa befintliga lagar samtidigt som man anpassar sig till nya lagar.
I nästa kapitel kommer vi att förklara lagar relaterade till AI i Japan och den internationella EU “AI Regulation Act” som antogs i december (2023).
Lagar om AI i Japan
I Japan finns för närvarande inga lagar med tvingande kraft som reglerar AI, utan man följer en policy om självreglering. Här förklarar vi de gällande lagarna som är viktiga att vara medveten om när man använder AI.
Referens: Japanska ministeriet för ekonomi, handel och industri | “Riktlinjer för styrning för praktisering av AI-principer ver. 1.1″[ja]
Upphovsrättslagen
I januari 2019 (Reiwa 1) trädde den reviderade japanska upphovsrättslagen i kraft, där en ny bestämmelse om begränsning av rättigheter (ett undantag där tillstånd inte krävs) infördes för “informationsanalys” (artikel 30-4, punkt 1, nummer 2 i lagen). Användning av verk för informationsanalys i AI-utveckling och under inlärningsfasen, där syftet inte är att ta del av de tankar eller känslor som uttrycks i verket, kan nu göras utan upphovsmannens tillstånd.
Denna ändring har klargjort att maskininlärning, inklusive djupinlärning inom AI, omfattas av definitionen av “informationsanalys”.
Användning för informationsanalys (att extrahera information relaterad till språk, ljud, bilder och andra element från en stor mängd verk och annan information, och att utföra jämförelser, klassificeringar och andra analyser av denna information)
Upphovsrättslagen artikel 30-4, punkt 1, nummer 2
Å andra sidan är det viktigt att vara medveten om att verk som skapas med AI och som uppvisar likheter med eller är beroende av andras verk kan anses vara ett brott mot upphovsrätten.
Om man matar in ett upphovsrättsskyddat verk som en prompt i ChatGPT, kan det också leda till en kränkning av reproduktionsrätten. Användning av generativ AI för att modifiera någon annans verk kan också resultera i en kränkning av bearbetningsrätten.
Enligt OpenAIs användarvillkor tillhör rättigheterna för innehåll skapat med ChatGPT användaren, och kommersiell användning är tillåten. Men om det är svårt att avgöra om innehållet bryter mot upphovsrätten, rekommenderas det att konsultera en expert.
Om en upphovsrättsinnehavare pekar ut ett verk som ett brott mot upphovsrätten, kan man bli ansvarig för civilrättsliga åtgärder (som förbud mot användning, skadestånd, ersättning för sveda och värk, återupprättelse av heder) eller till och med straffrättsligt ansvar.
Lagen om förhindrande av orättvis konkurrens
Den 1 juli 2019 (Reiwa 1) trädde den reviderade lagen om förhindrande av orättvis konkurrens i kraft. Tidigare var det svårt att förhindra orättvis konkurrens för objekt som inte skyddades av patentlagen eller upphovsrättslagen, eller som inte ansågs vara “affärshemligheter” enligt lagen om förhindrande av orättvis konkurrens.
Med denna ändring infördes civilrättsliga åtgärder (rätt till förbud, beräkning av skadestånd, etc.) mot ondskefulla handlingar som otillbörlig förvärv eller användning av data med visst värde (begränsad tillgångsdata).
Lagar om användning av AI i EU
EU:s rättssystem består av tre delar: primärrätt (fördrag), sekundärrätt (EU-lagstiftning) och rättspraxis. Sekundärrätten, som grundar sig på primärrätten (fördragen), består av lagar och andra regler som direkt eller indirekt binder medlemsstaterna och kallas för EU-rätt (derivat rätt). Sekundärrätten delas in i fem huvudtyper, men EU:s “AI-regleringslag” klassificeras som en förordning (Regulation), vilket innebär att den är en enhetlig regel som direkt binder medlemsstaterna.
Å andra sidan innebär ett direktiv (Directive) att varje medlemsstat har en indirekt juridisk skyldighet att anta ny nationell lagstiftning eller ändra befintlig lagstiftning för att genomföra innehållet i direktivet. Tidsfristen för detta är i allmänhet inom tre år efter publicering i EU:s officiella tidning.
Relaterad artikel: Måste-läs för företag som expanderar till Europa: Viktiga punkter om EU:s lagar och rättssystem[ja]
I detta kapitel kommer vi att förklara de senaste trenderna gällande “direktiv” och “förordningar” inom EU:s juridiska regleringar relaterade till användningen av AI.
Förslag till direktiv om ansvar för AI
Den 28 september 2022 offentliggjorde Europeiska kommissionen ett förslag till direktiv om ansvar för AI tillsammans med en revidering av direktivet om produktsäkerhet. Detta fastställer regler för juridiskt ansvar för AI-verksamhet inom EU (Europeiska unionen) som är förenliga med “AI-regleringslagen” och utgör en viktig juridisk ram. Det kommer att omfattas av EU:s “direktiv om grupptalan” som börjar gälla från juni 2023, vilket innebär att berörda japanska företag också behöver förstå dess innehåll.
Det representerar en betydande förändring av de juridiska reglerna för civilrättsligt ansvar för mjukvara, inklusive AI-system, inom EU, anpassat för den digitala tidsålderns cirkulära ekonomi och globala värdekedjor.
Relaterad artikel: Vad är läget och utsikterna för AI-regleringen i EU? Effekterna på japanska företag förklaras också[ja]
Syftet med “Förslag till direktiv om ansvar för AI” är att fastställa regler för civilrättsligt ansvar baserat på icke-kontraktsmässiga grunder för skador orsakade av AI-system, för att förbättra marknadsfunktionen inom EU.
Det innebär att ansvar baserat på kontrakt (ansvar för bristande prestation och ansvar för bristande överensstämmelse) inte är tillämpligt, och att skador som uppstår på grund av bristande säkerhet, som inte är begränsade till ansvar enligt “direktivet om produktsäkerhet”, utan inkluderar skador baserade på vårdslöshet (till exempel ansvar för olovliga handlingar), också omfattas.
Till exempel kan skador orsakade av diskriminering genom användning av AI i rekryteringssystem också omfattas.
Direktivförslaget syftar till att minska bevisbördan för utvecklare av “högrisk AI-system” som definieras i “AI-regleringslagen”, för att hantera problemet med AI:s “black box”, genom att införa “antaganden om orsakssamband” och ett “system för bevisupptagning”.
Om man inte följer en order om bevisupptagning, kräver “Förslag till direktiv om ansvar för AI” att man antar ett brott mot skyldigheten att iaktta försiktighet och orsakssamband, medan den reviderade “direktivet om produktsäkerhet” kräver att man antar en defekt och orsakssamband, och inför strängare straff än det japanska civilprocesslagen för att följa order.
Direktivförslaget är i första skedet begränsat till att minska bevisbördan i samband med AI:s “black box” och inför nya bestämmelser för klaganderätt, bevisupptagning, bevisbevarande och antaganden om orsakssamband.
Det andra skedet innefattar bestämmelser för översyn och utvärdering. Europeiska kommissionen kommer att inrätta ett övervakningsprogram för att granska incidentinformation och utvärdera lämpligheten och nödvändigheten av ytterligare åtgärder, såsom införande av strikt ansvar för operatörer av högrisk AI-system och obligatorisk försäkring, och rapportera detta till Europeiska rådet och Europaparlamentet.
Revidering av direktivet om produktsäkerhet
“Direktivet om produktsäkerhet”, som antogs 1985, är en EU-lag som skyddar konsumenter genom att fastställa tillverkarnas ansvar när konsumenter lider skada på grund av defekta produkter.
I revideringsförslaget läggs “mjukvara” till som en ny kategori av “produkter” som omfattas av produktsäkerhetsansvaret. Om det finns en “defekt” i en AI-system, som är en typ av mjukvara, kommer ansvar utan fel att tillämpas på operatören av AI-systemet. Dessutom har nya kriterier för att bedöma om en “defekt” finns tillagts, inklusive förmågan till kontinuerligt lärande efter installation och mjukvaruuppdateringar.
Enligt den nuvarande japanska lagen om produktsäkerhet, betraktas vanligtvis inte mjukvara som lös egendom och anses därför inte vara en “produkt” som omfattas av lagen. Men revideringsförslaget ändrar på konceptet av vad som anses vara en “produkt”. Det introducerar även “åtgärder för att minska bevisbördan”, vilket kan ha en stor inverkan på mjukvara, inklusive AI-system och avancerade teknikprodukter.
AI-regleringslagen
“AI-regleringslagen (AI Act)” är en omfattande uppsättning enhetliga EU-regler (sekundärlagstiftning) som riktar sig mot AI-verksamheter och består av 85 artiklar. Det är den första internationella lagen som reglerar AI och den antogs efter preliminärt avtal mellan Europeiska kommissionen, Europaparlamentet och Europeiska rådet den 9 december 2023. Den förväntas träda i kraft och genomföras i sin helhet under 2024.
Denna lag utgör kärnan i EU:s digitala strategi, känd som “A Europe fit for the Digital Age”, och syftar till att ta itu med nya utmaningar och risker i den digitala eran. Den garanterar säkerheten och de grundläggande rättigheterna för AI samt syftar till att stärka insatserna, investeringarna och innovationen inom AI över hela EU som en del av ett omfattande AI-paket.
EU:s “AI-regleringslag” tillämpas direkt på medlemsstaterna men har också extraterritoriell tillämpning, vilket innebär att den gäller för företag som bedriver verksamhet inom EU samt för företag baserade utanför EU.
Vid överträdelser kan företagen drabbas av betydande böter baserade på deras globala omsättning (upp till 30 miljoner euro eller 6 % av den totala globala omsättningen, beroende på vilket belopp som är högre), vilket kan leda till att de inte längre kan bedriva AI-verksamhet inom EU.
Därför krävs det att företag, inklusive japanska företag som redan har implementerat AI på EU-marknaden eller som överväger att expandera till EU, anpassar sig till de nya AI-regleringarna i EU.
“AI-regleringslagen” bygger på tre huvudprinciper: “riskbaserad klassificering av AI”, “krav och skyldigheter” samt “stöd till innovation”.
Regleringen riktar sig till aktörer som lanserar AI-system och tjänster på den europeiska marknaden, inklusive AI-utvecklare, distributörer, leverantörer, importörer, återförsäljare och användare.
AI:s risknivå kategoriseras i fyra nivåer, och regleringen anpassas därefter. För att uppnå AI-principerna är det avgörande att säkerställa AI-litteracitet bland AI-utvecklare, användare och leverantörer. För mer information, se relaterade artiklar.
Relaterade artiklar: Aktuell status och utsikter för AI-regleringslagen i EU? Effekter på japanska företag förklaras också[ja]
Viktiga punkter att beakta gällande lagar om AI
I detta avsnitt förklarar vi huvudsakligen de juridiska punkter som företag bör vara uppmärksamma på när de avser att använda generativ AI.
Om upphovsrätten för AI-skapat innehåll
När det gäller innehåll skapat av generativ AI finns det flera juridiska frågor att överväga.
- Om det skapade innehållet bryter mot upphovsrätten eller inte
- Om upphovsrätt erkänns för innehåll skapat av generativ AI
Som nämnts tidigare, om innehåll skapat av ChatGPT uppvisar likheter eller beroenden av upphovsrättsskyddat material, kan det anses vara en överträdelse av upphovsrätten. Å andra sidan, kan upphovsrätt erkännas för innehåll skapat av generativ AI?
Enligt upphovsrättslagen definieras “verk” som “ett uttryck för tankar eller känslor på ett kreativt sätt”. Eftersom AI inte har tankar eller känslor, finns det en uppfattning att innehåll skapat av generativ AI inte kan omfattas av upphovsrätt.
Å andra sidan, eftersom processen för att generera innehåll med AI är en svart låda (processen för beslutsfattande är ogenomskinlig) för användaren, kan det vara mycket svårt att få AI att producera det innehåll som användaren önskar. Därför, om användarens kreativitet kan erkännas i prompt-stadiet, kan det anses att användarens “tankar eller känslor” har “uttryckts på ett kreativt sätt” genom generativ AI, och i sådana fall kan upphovsrätt erkännas.
Om hantering av personuppgifter vid användning av AI
När du använder AI är det viktigt att vara medveten om att det kan finnas risker för att bryta mot lagen om skydd av personuppgifter. Åtgärder såsom att inte mata in personuppgifter eller privat information är nödvändiga.
Om personuppgifter matas in i prompten, kan det anses vara en tredjepartsöverföring av personuppgifter till tjänsteleverantören. I princip krävs den berörda personens samtycke för att överföra personuppgifter till tredje part, så utan detta samtycke kan det innebära en överträdelse av lagen om skydd av personuppgifter.
I ChatGPT, även om personuppgifter av misstag matas in, finns det en mekanism som förhindrar att dessa uppgifter visas i chatten. Detta beror på OpenAI:s policy att inte spara eller spåra personuppgifter, vilket kan skilja sig från andra tjänster eller plattformar, så det är viktigt att vara försiktig.
Riskhantering när företag engagerar sig i AI
Riskhantering varierar beroende på företagets affärsstrategi, syftet med användningen av AI och tillämpliga lagar och förordningar, vilket gör det viktigt att vidta lämpliga riskhanteringsåtgärder anpassade till situationen och målen.
För företag som använder generativ AI för att minimera risker bör följande punkter beaktas:
- Personalutveckling: Korrekt användning av generativ AI kräver specialiserad kunskap och färdigheter. Det är viktigt att genom utbildning och träning låta anställda förstå hur man använder det på rätt sätt.
- Utveckling och implementering av interna riktlinjer: Genom att utveckla och få anställda att följa interna riktlinjer för användning av generativ AI kan riskerna minskas.
- Upprättande av en organisation för att främja användning och riskhantering: Det är effektivt att inrätta en organisation för att främja användningen av generativ AI och placera ett team inom organisationen som ansvarar för riskhantering.
- Systemimplementering: För att korrekt implementera generativ AI är det nödvändigt att noggrant välja och designa systemet.
Dessutom diversifieras riskerna med användningen av generativ AI, inklusive risker för informationsläckage, intrång i rättigheter och privatliv, oro för informationens korrekthet och säkerhet, samt risk för bias. För att undvika dessa risker är det avgörande att införa en lämplig styrning och ramverk för riskhantering.
Relaterad artikel: “Risker med företagsanvändning av ChatGPT. Exempel på läckage av konfidentiell information och åtgärder för att hantera dem”[ja]
Sammanfattning: AI-lagstiftningen är under utveckling, därför är det nödvändigt att hålla sig uppdaterad
Lagstiftningen kring AI-affärer är i ett skede där ramar håller på att utvecklas, med början med världens första internationella “AI-regleringslag” i EU (antagen den 9 december 2023), vilket kräver att företag följer befintliga lagar samtidigt som de flexibelt anpassar sig till nya lagar.
I Japan finns det ännu inga lagar som direkt reglerar AI, men det är viktigt att förstå och korrekt hantera relaterade lagar som upphovsrättslagen, lagen om skydd av personuppgifter och lagen mot otillbörlig konkurrens. Dessutom är det nödvändigt att noggrant övervaka framtida ändringar av relaterade lagar och snabbt anpassa sig till dem.
Information om åtgärder från vår byrå
Monoliths juridiska byrå är en advokatfirma med omfattande erfarenhet inom IT, särskilt internet och juridik. AI-verksamhet medför många juridiska risker, och stöd från advokater som är väl insatta i juridiska frågor relaterade till AI är avgörande.
Vår byrå erbjuder avancerat juridiskt stöd för AI-verksamheter, inklusive ChatGPT, genom ett team av advokater och ingenjörer som är experter på AI. Vi tillhandahåller tjänster som upprättande av kontrakt, granskning av affärsmodellers laglighet, skydd av immateriella rättigheter och hantering av integritetsfrågor. Mer information finns i artikeln nedan.
Monoliths juridiska byrås expertisområden: Juridik inom AI (inklusive ChatGPT)[ja]
Category: IT