Hva er risikoene ved å bruke ChatGPT i virksomheten? En forklaring på de juridiske problemstillingene
Siden lanseringen har ChatGPT fått stor oppmerksomhet over hele verden for sin nytteverdi. Samtidig har det blitt kjent at bruken innebærer ulike risikoer. Lovgivningen er fortsatt under utvikling, og det er et faktum at mange bedriftsledere føler usikkerhet rundt risikoene ved å bruke ChatGPT i virksomheten, samt metoder for å sikre seg mot disse risikoene.
I denne artikkelen vil vi forklare de juridiske risikoene og tiltakene knyttet til bruk av ChatGPT i forretningsøyemed.
Fire risikoer ved bruk av ChatGPT i næringslivet
I næringslivet har bruken av naturlig språkgenererende AI som ChatGPT økt, og i regnskapsåret 2022 var adopsjonsraten for bedrifter 13,5 %, og inkluderer man de som planlegger å innføre det, stiger tallet til 24,0 %. (Kilde: Japanese Ministry of Internal Affairs and Communications | Reiwa 5 (2023) White Paper on Information and Communications in Japan, Communication Usage Trends Survey “Status for bedrifters implementering av IoT- og AI-systemer og -tjenester“)
Det er sant at AI-teknologi, inkludert ChatGPT, er effektiv for å forbedre bedrifters arbeidseffektivitet og det forventes at det vil åpne opp for flere forretningsmuligheter. På den annen side medfører det også mange juridiske risikoer. Derfor er det nødvendig å forstå risikoene godt før man tar en beslutning om å bruke det i forretningsøyemed.
For eksempel, eksperter advarer om potensielle risikoer knyttet til AI, som opphavsrettslige problemer, spredning av feilinformasjon, lekkasje av konfidensiell informasjon, personvernproblemer, og misbruk i forbindelse med cyberangrep.
I dette kapittelet vil vi forklare de fire risikoene ved å bruke ChatGPT i næringslivet.
Risikoen for informasjonslekkasje gjennom læringsfunksjoner
ChatGPT er praktisk, men siden det er en AI-chatbot som genereres ved å lære fra ulike data på nettet, ligger det en risiko for at informasjonen som legges inn kan bli lekket hvis ingen tiltak blir iverksatt.
Ifølge OpenAIs datapolitikk, vil dataene som brukere legger inn i ChatGPT bli samlet og brukt (lært) av OpenAI, med mindre brukeren går gjennom ‘API’ eller sender en ‘opt-out’ forespørsel.
Det er viktig å være forsiktig med å ikke legge inn personlig eller konfidensiell informasjon med høy grad av hemmelighold uten å ha tatt forhåndsregler. Selv om personlig informasjon ved et uhell blir lagt inn i ChatGPT, vil det vises en advarselsmelding, og ChatGPT er designet til ikke å lagre eller spore personlig informasjon, og kan ikke gjengi den i chatten.
På den annen side har det vært tilfeller der personlig informasjon registrert av brukere har lekket på grunn av en systemfeil hos OpenAI, som driver ChatGPT.
Relatert artikkel: Hva er risikoen for informasjonslekkasje med ChatGPT? Introduksjon av fire nødvendige tiltak[ja]
Risikoen ved manglende troverdighet i informasjon
Fra mai 2023 har ChatGPT implementert en webleserfunksjon som gir den søkefunksjonalitet, noe som gjør at ChatGPT kan samle inn den nyeste informasjonen og svare basert på disse resultatene.
Men selv om ChatGPT gir svar som om informasjonen er sann, er ikke troverdigheten garantert. Svarene som ChatGPT genererer er ikke nødvendigvis basert på nøyaktigheten av informasjonen i læringsdataene, men er heller generert som de mest sannsynlige (mest mulige) setningene. Derfor er det essensielt å utføre faktasjekking av ChatGPTs svar. Hvis man ved en feiltakelse sprer falsk informasjon basert på ChatGPTs svar, kan det skade bedriftens egen troverdighet.
Den 3. april 2023 uttrykte Universitetet i Tokyo bekymring for de tekniske utfordringene ved ChatGPT og den potensielle påvirkningen på samfunnet fremover, og ga ut følgende uttalelse:
“Prinsippet bak ChatGPT er å skape sannsynlige setninger ved hjelp av maskinlæring og forsterket læring fra en stor mengde eksisterende tekster og innhold. Derfor kan det skrevne innholdet inneholde usannheter. Det er som å snakke med en person som later som de vet alt, men som egentlig ikke gjør det. (Selv om den nyeste versjonen, GPT-4, er betydelig mer nøyaktig og en ganske dyktig samtalepartner.) For å mestre ChatGPT kreves det spesialisert kunnskap, og det er nødvendig å kritisk vurdere svarene og gjøre passende korrigeringer. I tillegg kan den ikke analysere eller beskrive ny kunnskap som ikke finnes i eksisterende informasjon. Med andre ord, selv med ChatGPT, kan vi ikke forsømme vår egen læring og forskning. Men hvis en person med kultur og spesialkunnskap kritisk analyserer svarene og bruker dem dyktig, kan det forbedre effektiviteten av rutinemessige oppgaver betydelig,” påpeker de.
Kilde: Universitetet i Tokyo | ‘Om generativ AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, etc.)[ja]‘
Juridiske risikoer som opphavsrettsbrudd og krenkelse av personvern
Vurderingen av opphavsrettsbrudd i ChatGPT deles inn i “AI-utviklings- og læringsfasen” og “genererings- og bruksfasen”. Bruken av opphavsrettsbeskyttede verk varierer i hver fase, og derfor gjelder forskjellige bestemmelser i opphavsrettsloven. Det er derfor nødvendig å vurdere disse to fasene separat.
Referanse: Kulturbyrået | Reiwa 5 (2023) opphavsrettsseminar “AI og opphavsrett”
I januar 2019 ble det innført en endring i den japanske opphavsrettsloven, som inkluderte en ny bestemmelse i artikkel 30-4 om begrensninger av rettigheter, som tillater bruk av opphavsrettsbeskyttede verk i “AI-utviklings- og læringsfasen” uten opphavsmannens tillatelse. Dette gjelder for bruk av verk for informasjonsanalyse og andre formål som ikke innebærer å nyte verkets uttrykte tanker eller følelser.
På den annen side, hvis det er en likhet eller avhengighet (modifikasjon) mellom et produkt generert av ChatGPT og et opphavsrettsbeskyttet verk, kan det utgjøre et opphavsrettsbrudd. Derfor er det viktig å sjekke rettighetshaverne til informasjonen som ChatGPT har referert til før publisering, og å forsikre seg om at det ikke er noen likhet med innholdet som ChatGPT har skapt. Når man siterer et verk, må man tydelig angi kilden (begrensning av rettigheter), og hvis man republiserer et verk, må man innhente tillatelse fra opphavsmannen for å håndtere det på en passende måte.
Ifølge OpenAI’s brukervilkår kan innhold opprettet av ChatGPT brukes kommersielt, men hvis det er vanskelig å avgjøre om innholdet som er opprettet ved hjelp av ChatGPT utgjør et opphavsrettsbrudd, anbefales det å konsultere en ekspert.
Hvis en opphavsmann påpeker et opphavsrettsbrudd, kan man bli holdt ansvarlig for sivile forpliktelser (erstatning, oppreisning, forbud mot bruk, gjenopprettelse av ære osv.) eller strafferettslig ansvar (privat anklage). For bedrifter kan dobbeltstraffbestemmelser gjelde, og både enkeltpersoner og juridiske personer kan bli straffet, noe som kan føre til større skade.
Når det gjelder personopplysninger og personvern, er det også nødvendig å være forsiktig med ikke å legge inn slik informasjon i ChatGPT. Som nevnt ovenfor, selv om man ved et uhell legger inn personopplysninger i ChatGPT, lagrer eller sporer ikke ChatGPT denne informasjonen og kan ikke produsere den i en chat. Dette er imidlertid OpenAI’s policy, og det kan være annerledes for andre plattformer eller tjenester.
For mer informasjon om risikoen for lekkasje av personopplysninger, vennligst les følgende artikkel.
Relatert artikkel: Risikoen for lekkasje av personopplysninger i bedrifter og erstatningsansvar[ja]
Risikoen for utilsiktet å skape skadelig innhold
Avhengig av innholdet i dataene ChatGPT har lært fra, og innholdet i promptene, kan det oppstå en risiko for å skape skadelig innhold. Hvis innhold skapt av ChatGPT publiseres uten å bli sjekket, kan det skade bedriftens omdømme og merkevareverdi, og det kan også føre til juridiske problemer.
Skadelig innhold er satt opp til ikke å kunne genereres eller behandles av ChatGPT, men skadelig programkode og svindeltjenester kan være vanskelig å identifisere og kan derfor bli produsert. Med denne risikoen i tankene, er det viktig å ha et system på plass for alltid å sjekke innholdet som blir skapt.
Forstå bruksvilkårene for å unngå risiko ved bruk av ChatGPT
Når du bruker ChatGPT i forretningsøyemed, er det viktig å først og fremst bruke tjenesten i samsvar med OpenAIs bruksvilkår og personvernpolicy for å unngå risiko. Bruksvilkårene endres ofte, så det er nødvendig å holde seg oppdatert på endringene for å sikre at man forstår de nyeste vilkårene når man bruker tjenesten i en forretningskontekst.
Relatert artikkel: Forklaring av OpenAIs bruksvilkår, hva bør man være oppmerksom på ved kommersiell bruk?[ja]
Hvordan unngå risiko ved bruk av ChatGPT i virksomheten
For å unngå risikoene forbundet med ChatGPT og bruke det på en passende måte i virksomheten, er det nødvendig for bedrifter å etablere følgende styringssystemer.
Opprette interne regler
Den 1. mai 2023 (Reiwa 5), publiserte General Incorporated Association Japan Deep Learning Association (JDLA) en sammenstilling av etiske, juridiske og sosiale problemstillinger (ELSI) knyttet til ChatGPT, og lanserte ‘Retningslinjer for bruk av generativ AI’. Det pågår også arbeid med å utvikle retningslinjer i ulike sektorer innen industri, akademia og offentlig forvaltning.
Når man innfører ChatGPT i en bedrift, er det ikke bare viktig å forbedre den enkeltes informasjonssikkerhetskompetanse og tilby intern opplæring, men det er også ønskelig å utarbeide egne retningslinjer for bruk av ChatGPT. Ved å utforme og gjøre kjent retningslinjer som klart definerer reglene for bruk av ChatGPT i din egen bedrift, kan man forvente å unngå visse risikoer.
Referanse: General Incorporated Association Japan Deep Learning Association (JDLA) | ‘Retningslinjer for bruk av generativ AI[ja]‘
Etablere en tilsynsperson for bruk av ChatGPT
Det er også effektivt for risikoavverging å ha en tilsynsperson i bedriften som overvåker bruken av ChatGPT, monitorerer retningslinjene og håndterer risiko.
Å overvåke ChatGPTs oppførsel, korrigere genererte resultater og håndtere data kan sies å være nært beslektet med systemrevisjon. Systemrevisjon er en objektiv vurdering av informasjonssystemers effektivitet, sikkerhet og pålitelighet, og utføres med mål om å effektivisere virksomheten og støtte organisatorisk endring. Ved å etablere en tilsynsperson for revisjon, kan man også styrke transparens og ansvarlighet i forbindelse med drift.
Oppsummering: Risikoreduserende tiltak er essensielle for bruk av ChatGPT i virksomheter
Her har vi forklart i detalj om risikoene og tiltakene knyttet til bruk av ChatGPT i virksomheter.
For raskt utviklende AI-forretninger som ChatGPT, er det avgjørende å ha tiltak på plass som strekker seg fra utvikling av interne retningslinjer for bruk, til vurdering av forretningsmodellens lovlighet, opprettelse av kontrakter og brukervilkår, beskyttelse av intellektuelle eiendomsrettigheter, og håndtering av personvern. Dette krever juridisk risikostyring og samarbeid med eksperter som har dyptgående kunnskap om AI-teknologi.
Veiledning om tiltak fra vår advokatfirma
Monolith Advokatfirma har omfattende erfaring med IT, spesielt internett og jus. AI-virksomhet medfører mange juridiske risikoer, og støtte fra advokater som er eksperter på juridiske spørsmål relatert til AI, er avgjørende.
Vårt firma tilbyr et bredt spekter av juridiske tjenester for AI-virksomheter, inkludert ChatGPT, ved hjelp av et team av AI-kyndige advokater og ingeniører. Du kan lese mer om dette i artikkelen nedenfor.
Monolith Advokatfirmas tjenesteområder: AI (inkludert ChatGPT) juridiske tjenester[ja]
Category: IT
Tag: ITTerms of Use