MONOLITH LAW OFFICE+81-3-6262-3248Hverdage 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Hvilke risici er der ved at bruge ChatGPT i erhvervsmæssig sammenhæng? En forklaring på de juridiske problemer

IT

Hvilke risici er der ved at bruge ChatGPT i erhvervsmæssig sammenhæng? En forklaring på de juridiske problemer

Siden lanceringen har ChatGPT tiltrukket sig stor opmærksomhed verden over for dets anvendelighed. Samtidig er det blevet kendt, at der følger forskellige risici med brugen af det. Lovgivningen er stadig under udvikling, og det er en kendsgerning, at mange ledere føler sig usikre omkring risiciene ved at bruge ChatGPT i forretningssammenhæng og metoder til at hedge disse risici.

I denne artikel vil vi forklare de juridiske risici og foranstaltninger forbundet med at bruge ChatGPT i erhvervslivet.

Fire risici ved erhvervsmæssig brug af ChatGPT

Også i erhvervslivet er anvendelsen af natursprogs-genererende AI som ChatGPT i fremgang, og i regnskabsåret 2022 var virksomhedernes implementeringsrate 13,5 %, hvilket stiger til 24,0 %, når man inkluderer dem, der planlægger at implementere det. (Kilde: Japanese Ministry of Internal Affairs and Communications | Reiwa 5 (2023) Information and Communications White Paper Communication Usage Trends Survey “Virksomheders implementering af IoT- og AI-systemer og -tjenester[ja]“)

Det er sandt, at AI-teknologi, herunder ChatGPT, er effektiv til at forbedre virksomheders arbejdseffektivitet og kan forventes at skabe flere forretningsmuligheder. På den anden side medfører det også mange juridiske risici. Derfor er det nødvendigt at forstå disse risici fuldt ud, før man træffer en beslutning om at anvende det i forretningssammenhæng.

For eksempel slår eksperter alarm om potentielle risici ved AI, såsom ophavsretlige problemer, spredning af misinformation, lækage af fortrolige oplysninger, privatlivets fred og misbrug i forbindelse med cyberangreb.

I dette kapitel vil vi forklare de fire risici ved erhvervsmæssig brug af ChatGPT.

Risikoen for datalækage gennem læringsfunktioner

ChatGPT er praktisk, men da det er en AI-chatbot genereret gennem læring fra forskellige data på nettet, indebærer det en risiko for lækage af de indtastede oplysninger, hvis der ikke træffes foranstaltninger.

Ifølge OpenAIs datapolitik, vil de data, brugerne indtaster i ChatGPT, blive indsamlet og anvendt (til læring) af OpenAI, medmindre brugeren anvender ‘API’ eller indsender en ‘opt-out’ anmodning.

Det er vigtigt at være opmærksom og undgå at indtaste personlige eller fortrolige oplysninger uden at have truffet foranstaltninger. Selv hvis personlige oplysninger ved en fejl indtastes i ChatGPT, vil der blive vist en advarselsmeddelelse, og ChatGPT er designet til ikke at gemme eller spore personlige oplysninger og kan ikke udlevere dem i chatten.

På den anden side har der været en hændelse, hvor personlige oplysninger registreret af brugerne blev lækket på grund af en systemfejl hos OpenAI, som driver ChatGPT.

Relateret artikel: Hvad er risikoen for information lækage med ChatGPT? Introduktion til fire nødvendige foranstaltninger[ja]

Risikoen ved manglende troværdighed i information

Risikoen ved manglende troværdighed i information

Fra maj 2023 (Reiwa 5) har ChatGPT implementeret en webbrowsing-funktion, hvilket har udstyret det med en søgefunktion, så det nu kan indsamle den nyeste information og besvare spørgsmål baseret på disse resultater.

Men selvom ChatGPT præsenterer sine svar som om de var sandheder, er deres troværdighed ikke garanteret. De svar, som ChatGPT genererer, er ikke nødvendigvis baseret på nøjagtigheden af informationen i læringsdataene, men er snarere genereret som de mest sandsynlige (eller mest plausible) sætninger. Derfor er det afgørende at foretage faktatjek af ChatGPT’s svar. Hvis man ved en fejl spreder falsk information baseret på ChatGPT’s svar, kan det skade virksomhedens omdømme.

Den 3. april 2023 (Reiwa 5) udtrykte Tokyo Universitet bekymring over de tekniske udfordringer ved ChatGPT og dets potentielle indvirkning på samfundet fremadrettet, og udsendte følgende erklæring:

“Princippet bag ChatGPT er at skabe sandsynlige og overbevisende sætninger gennem maskinlæring og forstærket læring af en stor mængde eksisterende tekster og indhold. Derfor kan det skrevne indhold indeholde usandheder. Det er som at tale med en person, der virker meget veltalende, men som faktisk kun prætenderer at vide noget. (Det skal dog siges, at den nyeste version, GPT-4, er betydeligt mere præcis og en ganske fremragende samtalepartner.) For at mestre brugen af ChatGPT er det nødvendigt med specialiseret viden, og man skal kritisk gennemgå og om nødvendigt rette svarene. Desuden kan det ikke analysere eller beskrive ny viden, der ikke findes i eksisterende information. Med andre ord, bare fordi ChatGPT er kommet, betyder det ikke, at mennesker kan tillade sig at forsømme deres studier eller forskning. Men hvis en person med dannelse og specialviden kritisk analyserer svarene og bruger dem dygtigt, kan det i høj grad forbedre effektiviteten af rutinemæssige opgaver,” påpeger de.

Kilde: Tokyo Universitet | ‘Om generativ AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion osv.)[ja]

Juridiske risici såsom ophavsretskrænkelser og krænkelser af privatlivets fred

Vurderingen af ophavsretskrænkelser i ChatGPT opdeles i “AI-udviklings- og læringsfasen” og “genererings- og anvendelsesfasen”. Da brugen af ophavsretligt beskyttede værker varierer i hver fase, gælder forskellige bestemmelser i ophavsretsloven. Derfor er det nødvendigt at overveje hver fase separat.

Reference: Japanese Cultural Agency | Reiwa 5 (2023) Ophavsretsseminar “AI og ophavsret”[ja]

I januar 2019 (Heisei 31) trådte en revideret ophavsretslov i kraft, hvor artikel 30, afsnit 4, blev tilføjet som en ny begrænsningsbestemmelse for rettigheder (en undtagelsesbestemmelse, hvor tilladelse ikke er nødvendig) for “AI-udviklings- og læringsfasen”. Brug af ophavsretligt beskyttede værker til informationsanalyse og lignende, som ikke har til formål at nyde de udtrykte tanker eller følelser, kan som hovedregel udføres uden ophavsretsindholders tilladelse.

På den anden side, hvis det genererede indhold fra ChatGPT viser ligheder med eller afhængighed af (ændringer i) ophavsretligt beskyttede værker, kan det udgøre en ophavsretskrænkelse. Derfor er det vigtigt at kontrollere rettighedshaverne til de oplysninger, som ChatGPT har refereret til, før offentliggørelse, og at sikre, at der ikke er indhold, der ligner det, ChatGPT har skabt. Når man citerer et ophavsretligt beskyttet værk, skal man angive kilden (begrænsningsbestemmelse for rettigheder), og hvis man genudgiver værket, skal man opnå ophavsretsindholderens tilladelse og behandle det korrekt.

Ifølge OpenAI’s brugerbetingelser kan indhold skabt af ChatGPT anvendes kommercielt, men hvis det er vanskeligt at afgøre, om indholdet skabt ved hjælp af ChatGPT krænker ophavsretten, anbefales det at konsultere en ekspert.

Hvis en ophavsretsindholder påpeger en ophavsretskrænkelse, kan man blive holdt ansvarlig for civilretlige (erstatning, godtgørelse, forbud mod brug, genoprettelse af omdømme osv.) og strafferetlige forhold (forbrydelser, der kræver en klage). For virksomheder kan dobbeltstrafbestemmelserne finde anvendelse, og både enkeltpersoner og juridiske personer kan blive straffet, hvilket kan føre til større skader.

Med hensyn til personlige oplysninger og privatlivets fred er det også nødvendigt at være forsigtig og ikke indtaste sådanne oplysninger i ChatGPT. Som nævnt ovenfor, selv hvis personlige oplysninger ved et uheld indtastes i ChatGPT, gemmer eller sporer ChatGPT ikke personlige oplysninger og kan ikke udlevere dem i chatten. Dette er dog OpenAI’s politik, og det kan være anderledes på andre platforme eller tjenester.

For yderligere information om risikoen for lækage af personlige oplysninger, læs venligst følgende artikel.

Relateret artikel: Risikoen for lækage af virksomheders personlige oplysninger og erstatning for skader

Risikoen for utilsigtet at skabe skadeligt indhold

Risikoen for utilsigtet at skabe skadeligt indhold

Afhængigt af indholdet af de data, som ChatGPT er trænet på, og indholdet af de prompts, der gives, er der en risiko for at skabe skadeligt indhold. Hvis indhold skabt af ChatGPT offentliggøres uden forudgående kontrol, kan det skade virksomhedens omdømme og brandværdi og potentielt føre til juridiske problemer.

Skadeligt indhold er indstillet til ikke at kunne indtastes eller udskrives af ChatGPT, men skadelig programkode og svigagtige tjenester kan være svære at identificere og kan derfor blive produceret. Med denne risiko i tankerne er det vigtigt altid at have et system på plads til at kontrollere det indhold, der er skabt.

Forstå brugsvilkårene og undgå risici ved brug af ChatGPT

Når du bruger ChatGPT til forretningsformål, er det afgørende først at anvende det i overensstemmelse med OpenAI’s brugsvilkår og privatlivspolitik for at undgå risici. Da brugsvilkårene ofte opdateres, er det vigtigt at holde sig ajour med de seneste ændringer for at sikre, at man er opdateret med de nyeste vilkår, når man bruger det i en forretningskontekst.

Relateret artikel: Forklaring af OpenAI’s brugsvilkår, hvad skal man være opmærksom på ved kommerciel brug?[ja]

Nødvendige skridt for at undgå risici ved erhvervsmæssig brug af ChatGPT

Oprettelse af interne regler

For at undgå de risici, der er forbundet med ChatGPT, og for at sikre en korrekt brug i erhvervslivet, er det nødvendigt for virksomheder at etablere følgende governance-struktur.

Oprettelse af interne regler

Den 1. maj 2023 (Reiwa 5) offentliggjorde den almennyttige forening Japanese Deep Learning Association (JDLA) en sammenfatning af de etiske, juridiske og sociale problemstillinger (ELSI) forbundet med ChatGPT og udgav “Retningslinjer for brug af generativ AI”. Der arbejdes også på at udvikle retningslinjer i forskellige sektorer, herunder industri, akademia og regering.

Når virksomheder implementerer ChatGPT, er det ikke kun vigtigt at forbedre den enkelte medarbejders informationssikkerhedslitteratur og interne uddannelse, men det er også ønskeligt at udarbejde egne retningslinjer for brugen af ChatGPT. Ved at udarbejde og grundigt formidle retningslinjer, der klart definerer reglerne for brugen af ChatGPT i virksomheden, kan man forvente at undgå visse risici.

Reference: Japanese Deep Learning Association (JDLA) | “Retningslinjer for brug af generativ AI[ja]

Udnævnelse af en tilsynsførende for brugen af ChatGPT

Det er også effektivt for risikoafværgelse at have en tilsynsførende i virksomheden, der konstant overvåger anvendelsen af retningslinjerne og styrer risiciene forbundet med brugen af ChatGPT.

At overvåge ChatGPT’s adfærd, korrigere genererede resultater og administrere data kan siges at være tæt på systemrevision. Systemrevision er en objektiv vurdering af informationssystemers effektivitet, sikkerhed og pålidelighed og udføres med det formål at effektivisere forretningsprocesser og støtte organisatorisk forandring. Ved at udnævne en tilsynsførende til at udføre revisionen kan man også styrke gennemsigtigheden og ansvarligheden i forbindelse med driften.

Opsummering: Risikostyring er afgørende for erhvervsmæssig brug af ChatGPT

Her har vi uddybet de risici og foranstaltninger, der er forbundet med erhvervsmæssig brug af ChatGPT.

For hurtigt udviklende AI-forretninger som ChatGPT er det afgørende at have en række foranstaltninger på plads, fra udvikling af interne retningslinjer til vurdering af forretningsmodellers lovlighed, oprettelse af kontrakter og brugsvilkår, beskyttelse af intellektuelle ejendomsrettigheder og håndtering af privatlivets fred. Disse kræver alle juridisk risikostyring og samarbejde med eksperter, der er dygtige inden for AI-teknologi.

Vejledning om foranstaltninger fra vores kontor

Monolith Advokatfirma er et advokatfirma med omfattende erfaring inden for IT, især internettet og juraen. AI-forretninger indebærer mange juridiske risici, og støtte fra advokater, der er eksperter i juridiske spørgsmål relateret til AI, er afgørende.

Vores kontor tilbyder en række juridiske støttetjenester til AI-forretninger, herunder ChatGPT, ved hjælp af et team af advokater og ingeniører, der er specialiserede i AI. Du kan finde flere detaljer i artiklen nedenfor.

Monolith Advokatfirmas ekspertiseområder: AI (såsom ChatGPT) juridiske tjenester[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Tilbage til toppen