Warning: readfile(https://monolith.law/wp-content/themes/monolith2021/myphpfiles/lang_list.php): Failed to open stream: HTTP request failed! HTTP/1.1 429 Too Many Requests in /home/xb675064/monolith.law/public_html/wp-content/themes/monolith_sv/header.php on line 28

MONOLITH LAW OFFICE+81-3-6262-3248Vardagar 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Vilka är riskerna med att använda ChatGPT i verksamheten? En förklaring av juridiska frågor

IT

Vilka är riskerna med att använda ChatGPT i verksamheten? En förklaring av juridiska frågor

Sedan lanseringen har ChatGPT fått stor uppmärksamhet över hela världen för sin användbarhet. Samtidigt har det blivit känt att användningen medför olika risker. Lagstiftningen är fortfarande under utveckling, och det är ett faktum att många företagsledare känner oro över riskerna med att använda ChatGPT i affärssammanhang och hur man kan skydda sig mot dessa risker.

I den här artikeln förklarar vi de juridiska riskerna och åtgärderna när du använder ChatGPT i ditt företag.

Fyra risker vid affärsanvändning av ChatGPT

Även inom företag har användningen av naturligt språkgenererande AI som ChatGPT ökat, och under 2022 (Reiwa 5) uppgick företagens införandegrad till 13,5 %, vilket inkluderar de som planerar att införa det, till 24,0 %. (Källa: Japanese Ministry of Internal Affairs and Communications|Information and Communications in Japan White Paper Reiwa 5 (2023) Communication Usage Trends Survey “Företags införande av IoT- och AI-system och tjänster[ja]“)

Visst är AI-teknik som ChatGPT effektiv för att förbättra företagens arbetsprocesser och det förväntas skapa fler affärsmöjligheter. Samtidigt medför det också många juridiska risker. Därför är det nödvändigt att förstå dessa risker väl innan man beslutar sig för att använda det i affärssammanhang.

Exempelvis har experter slagit larm om potentiella risker med AI, såsom upphovsrättsliga problem, spridning av felaktig information, läckage av konfidentiell information, integritetsfrågor och missbruk för cyberattacker.

I det här kapitlet kommer vi att förklara fyra risker som är förknippade med att använda ChatGPT i affärssyfte.

Risken för informationsläckage genom inlärningsfunktioner

ChatGPT är å ena sidan praktiskt, men eftersom det är en AI-chattbot som genereras genom att lära sig från olika data på nätet, finns det en risk för informationsläckage om inga åtgärder vidtas, då den information som matas in kan användas i inlärningsprocessen.

Enligt OpenAIs datapolicy kommer data som användare matar in i ChatGPT att samlas in och användas (läras av) av OpenAI, såvida inte användaren väljer att gå via “API” eller ansöka om “opt-out”.

Det är viktigt att vara försiktig och inte mata in personlig eller konfidentiell information, såsom information med hög sekretess, utan att ha vidtagit lämpliga skyddsåtgärder. Även om personlig information av misstag matas in i ChatGPT, visas en varningsmeddelande och ChatGPT är utformat för att inte spara eller spåra personlig information och kan inte återge den i chatten.

Det har dock förekommit incidenter där personlig information som användare registrerat hos OpenAI har läckt ut på grund av buggar i OpenAIs system som driver ChatGPT.

Relaterad artikel: Vad är risken för informationsläckage med ChatGPT? Vi introducerar fyra åtgärder att vidta[ja]

Risk för bristande trovärdighet i information

Risk för bristande trovärdighet i information

Från och med maj 2023 har ChatGPT utrustats med en webbläsarfunktion, vilket har försett tjänsten med sökfunktioner. Detta gör att ChatGPT kan samla in den senaste informationen och svara baserat på dessa resultat.

Men även om ChatGPT presenterar sina svar som om de vore sanningar, är deras trovärdighet inte garanterad. Svaren som ChatGPT genererar baseras inte på en noggrann analys av informationens korrekthet från inlärningsdata, utan är snarare skapade genom att välja de mest sannolika (mest troliga) formuleringarna. Därför är det nödvändigt att alltid genomföra en faktakontroll av ChatGPT:s svar. Om man oavsiktligt sprider falsk information baserad på svaren från ChatGPT, kan det skada företagets rykte och trovärdighet.

Den 3 april 2023 (Reiwa 5) uttryckte Tokyos universitet oro över de tekniska utmaningarna med ChatGPT och dess potentiella påverkan på samhället i framtiden, och gav ut följande uttalande:

“Principen bakom ChatGPT är att skapa troliga texter genom maskininlärning och förstärkningsinlärning av stora mängder befintlig text och innehåll. Därför kan det som skrivs innehålla osanningar. Det är som att ha en konversation med en mycket övertygande person som låtsas veta allt. (Dock bör det noteras att den senaste versionen, GPT-4, är betydligt mer exakt och en mycket kompetent samtalspartner.) För att effektivt använda ChatGPT krävs expertkunskap, och svaren måste kritiskt granskas och vid behov korrigeras. Dessutom kan den inte analysera eller beskriva nya insikter som inte finns i befintlig information. Med andra ord, bara för att ChatGPT finns betyder det inte att människor kan sluta studera eller forska. Men om personer med bildning och expertkunskap kritiskt analyserar och använder svaren på rätt sätt, kan det avsevärt förbättra effektiviteten i rutinmässiga arbetsuppgifter.”

Källa: Tokyos universitet | “Om generativ AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion etc.)[ja]

Juridiska risker såsom upphovsrättsintrång och intrång i privatlivet

Bedömningen av upphovsrättsintrång i ChatGPT skiljer sig åt mellan “AI-utvecklings- och inlärningsfasen” och “genererings- och användningsfasen”. Eftersom de handlingar som involverar användning av upphovsrättsskyddade verk skiljer sig åt i varje fas, skiljer sig också tillämpliga artiklar i upphovsrättslagen. Därför är det nödvändigt att överväga dem separat.

Referens: Kulturbyrån | Upphovsrättsseminarium “AI och upphovsrätt” för år Reiwa 5 (2023)[ja]

I den reviderade upphovsrättslagen som trädde i kraft i januari 2019, har en ny bestämmelse för begränsning av rättigheter (undantag där tillstånd inte krävs) lagts till som artikel 30.4, vilken omfattar “AI-utvecklings- och inlärningsfasen”. Användning av upphovsrättsskyddade verk för informationsanalys för AI-utveckling och andra aktiviteter som inte syftar till att ta del av de idéer eller känslor som uttrycks i verken, kan i princip genomföras utan upphovsmannens tillstånd.

Å andra sidan, om det finns likheter eller beroenden (modifieringar) mellan det som genereras av ChatGPT och befintliga upphovsrättsskyddade verk, kan det räknas som upphovsrättsintrång. Därför är det viktigt att, innan publicering, kontrollera rättighetshavaren till informationen som ChatGPT har refererat till och att det inte finns något innehåll som liknar det som ChatGPT har skapat. Vid citering av upphovsrättsskyddade verk måste källan anges (begränsning av rättigheter), och vid återpublicering måste tillstånd från upphovsrättsinnehavaren erhållas för att hantera det på ett korrekt sätt.

Enligt användarvillkoren från OpenAI kan innehåll skapat av ChatGPT användas kommersiellt, men om det är svårt att avgöra om innehållet som skapats med ChatGPT utgör ett upphovsrättsintrång, rekommenderas det att konsultera en expert.

Om en upphovsrättsinnehavare påpekar ett upphovsrättsintrång, kan man bli ansvarig för civilrättsliga åtgärder (skadestånd, kompensation för kränkning, förbud mot användning, återställande av rykte etc.) eller brottsligt ansvar (brott som kräver målsägandens anmälan). För företag kan dubbelbestraffning tillämpas, vilket innebär att både individer och juridiska personer kan bli föremål för straff, vilket kan leda till större skador.

Det är också nödvändigt att vara försiktig med personuppgifter och privatliv, och inte mata in sådana uppgifter i ChatGPT. Som nämnts ovan, även om personuppgifter av misstag matas in i ChatGPT, lagrar eller spårar inte ChatGPT personuppgifter och kan inte återge dem i chatten. Detta är dock OpenAIs policy, och andra plattformar eller tjänster kan ha andra regler.

För mer information om riskerna med läckage av personuppgifter, läs följande artikel.

Relaterad artikel: Risker med läckage av företags personuppgifter och skadestånd[ja]

Risken att oavsiktligt skapa skadligt innehåll

Risken att oavsiktligt skapa skadligt innehåll

Beroende på innehållet i de data som ChatGPT har tränats på och innehållet i de prompts som används, finns det en risk att skadligt innehåll skapas. Om innehåll som genererats av ChatGPT publiceras utan att först granskas, kan det skada företagets rykte och varumärkesvärde och även leda till juridiska problem.

Även om ChatGPT är inställt för att inte generera skadligt innehåll, kan det vara svårt att identifiera skadliga programkoder eller bedrägliga tjänster, vilket innebär att de kan genereras ändå. Med tanke på dessa risker är det viktigt att alltid ha en process för att granska det innehåll som skapas.

Förstå användarvillkoren för att undvika risker med ChatGPT-användning

När du använder ChatGPT i affärssammanhang är det viktigt att först och främst använda tjänsten i enlighet med OpenAIs användarvillkor och sekretesspolicy för att undvika risker. Användarvillkoren uppdateras ofta, så det är nödvändigt att regelbundet kontrollera eventuella ändringar och se till att du är uppdaterad med de senaste villkoren när du använder tjänsten i ditt företag.

Relaterad artikel: Förklaring av OpenAIs användarvillkor, vad bör man tänka på vid kommersiellt bruk?[ja]

Att undvika risker vid affärsanvändning av ChatGPT

Skapa interna regler

För att undvika de risker som är förknippade med ChatGPT och för att använda det på ett korrekt sätt i affärssammanhang, krävs det att företag etablerar följande styrningsstrukturer.

Skapa interna regler

Den 1 maj 2023 (Reiwa 5), publicerade den allmänna inrättningen Japanese Deep Learning Association (JDLA) en sammanställning av etiska, juridiska och sociala frågor (ELSI) relaterade till ChatGPT och släppte “Riktlinjer för användning av generativ AI”. Även inom akademi, industri och offentlig förvaltning pågår diskussioner om att utveckla riktlinjer.

När man inför ChatGPT i ett företag är det inte bara viktigt att förbättra individens informationssäkerhetskompetens och intern utbildning, utan det är också önskvärt att utveckla egna riktlinjer för användning av ChatGPT. Genom att utforma och sprida kännedom om riktlinjer som klargör reglerna för användning av ChatGPT inom företaget, kan man förvänta sig att undvika vissa risker.

Referens: Japanese Deep Learning Association (JDLA) | “Riktlinjer för användning av generativ AI[ja]

Utnämna en tillsynsperson för användning av ChatGPT

Det är också effektivt för riskhantering att ha en tillsynsperson inom företaget som övervakar användningen av ChatGPT, ständigt övervakar riktlinjerna och hanterar riskerna.

Att övervaka ChatGPT:s beteende, korrigera genererade resultat och hantera data kan sägas vara liknande systemrevision. Systemrevision är en objektiv utvärdering av informationssystemets effektivitet, säkerhet och tillförlitlighet, och genomförs i syfte att effektivisera verksamheten och stödja organisatoriska förändringar. Genom att utnämna en tillsynsperson för revisionen kan man även stärka transparensen och ansvarsskyldigheten i verksamheten.

Sammanfattning: Riskhantering är avgörande vid användning av ChatGPT i affärsverksamhet

Här har vi detaljerat förklarat de risker och åtgärder som är förknippade med användningen av ChatGPT i affärsverksamhet.

I snabbt utvecklande AI-baserade affärer som ChatGPT är det nödvändigt att från början etablera interna riktlinjer för användning, utvärdera affärsmodellens laglighet, skapa kontrakt och användarvillkor, skydda immateriella rättigheter och hantera integritetsskydd. Detta kräver olika juridiska riskhanteringsstrategier och samarbete med experter som är väl insatta i AI-teknologi.

Information om åtgärder från vår byrå

Monolith Advokatbyrå har en omfattande erfarenhet inom IT, och särskilt inom internet och juridik. AI-verksamhet medför många juridiska risker, och stöd från advokater som är experter på juridiska frågor relaterade till AI är avgörande.

Vår byrå erbjuder en rad juridiska tjänster för AI-verksamheter, inklusive ChatGPT, genom ett team av AI-kunniga advokater och ingenjörer. Mer information finns i artikeln nedan.

Monolith Advokatbyrås expertisområden: AI (inklusive ChatGPT) juridik[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Tillbaka till toppen