MONOLITH LAW OFFICE+81-3-6262-3248Weekdays 10:00-18:00 JST

MONOLITH LAW MAGAZINE

IT

Millised on ChatGPT kasutamisega seotud riskid tööülesannetes? Selgitame ka õiguslikke probleeme

IT

Millised on ChatGPT kasutamisega seotud riskid tööülesannetes? Selgitame ka õiguslikke probleeme

ChatGPT on alates selle väljalaskmisest kogu maailmas suurt tähelepanu pälvinud oma kasulikkuse tõttu. Samal ajal on teadvustatud ka sellega kaasnevaid erinevaid riske. Seadusandlus on alles kujunemisjärgus ja paljud ettevõtjad tunnevad muret ChatGPT kasutamisega seotud riskide ning nende maandamise viiside pärast ärikeskkonnas.

Käesolevas artiklis selgitame ChatGPT ärilisel kasutamisel tekkida võivaid õigusriske ja nende maandamise strateegiaid.

ChatGPT kasutamisega seotud neli riski äritegevuses

Ettevõtetes on loomuliku keele genereerimise AI, nagu ChatGPT, kasutuselevõtt üha enam levinud. 2022. aastal (Reiwa 4) oli ettevõtete seas, kes on selle kasutusele võtnud, määr 13,5%, ja kui lisada need, kes plaanivad seda teha, tõuseb protsent 24,0%-ni. (Allikas: Jaapani Siseministeeriumi | Reiwa 5 (2023) aasta info- ja kommunikatsioonivalge raamat “Ettevõtete IoT ja AI süsteemide ning teenuste kasutuselevõtu olukord”[ja])

Kahtlemata on ChatGPT ja muud AI-tehnoloogiad ettevõtte töö efektiivsuse parandamisel kasulikud ning võivad avada uusi ärivõimalusi. Samas kaasnevad nendega ka mitmed õiguslikud riskid. Seetõttu on oluline mõista riske põhjalikult enne, kui otsustatakse neid äritegevuses kasutada.

Näiteks on eksperdid hoiatanud autoriõiguse probleemide, valeinfo leviku, konfidentsiaalse informatsiooni lekke, privaatsuse küsimuste ja AI kasutamise kohta küberatakkides – need on vaid mõned AI potentsiaalsed riskid.

Selles peatükis käsitleme nelja riski, mis on seotud ChatGPT kasutamisega äritegevuses.

Õppimisfunktsiooni kaudu tekkiv infolekkerisk

Kuigi ChatGPT on mugav, kujutab see endast AI-chatbot’i, mis on loodud õppides erinevaid andmeid internetist, mistõttu võib ilma vastumeetmeid rakendamata esineda risk, et sisestatud teave kasutatakse õppimiseks ja lekib.

OpenAI andmekasutuspoliitika kohaselt, kui kasutaja ei esita “API” kaudu või ei taotle “opt-out’i”, siis kasutab OpenAI kasutaja poolt ChatGPT-sse sisestatud andmeid kogumiseks ja õppimiseks.

On oluline olla ettevaatlik ja mitte sisestada isikuandmeid või konfidentsiaalset teavet, kui ei ole rakendatud vastumeetmeid. Isegi kui isikuandmed sisestatakse ChatGPT-sse kogemata, kuvatakse hoiatussõnum ja ChatGPT on loodud nii, et see ei salvesta ega jälgi isikuandmeid ning ei saa neid vestluses väljastada.

Siiski on minevikus olnud juhtumeid, kus OpenAI, mis haldab ChatGPT-d, on süsteemi vea tõttu lekkinud kasutajate registreeritud isikuandmed.

Seotud artikkel: Mis on ChatGPT infolekkerisk ja millised on neli vajalikku vastumeedet?[ja]

Informatsiooni usaldusväärsuse puudumise riskid

Informatsiooni usaldusväärsuse puudumise riskid

Alates 2023. aasta maist (Reiwa 5) on ChatGPT-le lisatud veebibrauseri funktsioon, mis võimaldab tal koguda kõige uuemat teavet ja vastata selle põhjal.

Kuid kuigi ChatGPT esitab vastuseid justkui need oleksid tõde, ei ole nende usaldusväärsus tagatud. ChatGPT genereerib vastuseid mitte õppimisandmete täpsuse põhjal, vaid loob kõige tõenäolisemana tunduvaid tekste. Seetõttu on ChatGPT vastuste puhul hädavajalik faktikontroll. Kui ettevõte levitab ChatGPT vastustele tuginedes valeinformatsiooni, võib see kahjustada ettevõtte enda mainet.

2023. aasta 3. aprillil (Reiwa 5) avaldas Tokyo Ülikool (Japanese Tokyo University) järgmise avalduse, väljendades muret ChatGPT tehnoloogiliste väljakutsete ja selle tuleviku ühiskondliku mõju pärast:

“ChatGPT põhimõte seisneb selles, et see loob suure hulga olemasolevate tekstide ja sisu masinõppe ning tugevdatud õppe kaudu tõenäoliselt usutavaid tekste. Seega võib kirjutatud sisu sisaldada valeinformatsiooni. See on nagu räägiksid väga osava ‘teesklejaga’. (Kuigi uusim versioon GPT-4 on oluliselt täpsem ja võib olla väga pädev nõuandja.) Seetõttu on ChatGPT kasutamiseks vajalik erialane teadmine, vastuseid tuleb kriitiliselt kontrollida ja vajadusel parandada. Lisaks ei saa see analüüsida ega kirjeldada uusi teadmisi, mida olemasolev info ei hõlma. See tähendab, et inimesed ei saa õppimist ega uurimistööd ChatGPT tõttu unarusse jätta. Siiski, kui haritud ja erialaseid teadmisi omav inimene analüüsib vastuseid kriitiliselt ja kasutab seda oskuslikult, on võimalik oluliselt suurendada rutiinsete tööde efektiivsust.”

Viide: Tokyo Ülikool | ‘Generatiivse AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion jne) kohta[ja]

Autoriõiguste rikkumise ja privaatsuse rikkumise õiguslikud riskid

ChatGPT puhul jaguneb autoriõiguste rikkumise hindamine kaheks: “AI arendamise ja õppimise etapp” ning “genereerimise ja kasutamise etapp”. Kuna igas etapis kasutatakse autoriõigusega kaitstud teoseid erinevalt, siis kehtivad ka erinevad autoriõiguse seaduse sätted. Seetõttu on vajalik mõlemat etappi eraldi arvesse võtta.

Viide: Jaapani Kultuuriamet | Reiwa 5 (2023) aasta autoriõiguse seminar “AI ja autoriõigus”[ja]

Jaapani autoriõiguse seaduse muudatus, mis jõustus 2019. aasta jaanuaris, lisas õiguste piirangute sätete hulka uue punkti 30-4, mis käsitleb “AI arendamise ja õppimise etappi”. AI arendamiseks vajalik teabe analüüs ja muud sellised kasutusviisid, mis ei eelda autoriõigusega kaitstud teosest mõtte või tunnete vastuvõtmist, on põhimõtteliselt lubatud ilma autoriõiguse omaniku loata.

Teisalt, kui ChatGPT poolt loodud genereeritud materjalil on sarnasusi või sõltuvust (muudatusi) autoriõigusega kaitstud teosega, võib see kujutada endast autoriõiguste rikkumist. Seetõttu on enne avaldamist oluline kontrollida, kas ChatGPT poolt viidatud teabe õiguste omanikud on tuvastatud ja kas ChatGPT loodud materjal ei sisalda sarnast sisu. Kui teost tsiteeritakse, tuleb viidata allikale (õiguste piirangute säte), ja kui teost reprodutseeritakse, tuleb saada autoriõiguse omaniku luba ning käsitleda seda korrektselt.

OpenAI kasutustingimuste kohaselt on ChatGPT poolt loodud sisu kommertslikuks kasutamiseks lubatud, kuid kui on raske otsustada, kas ChatGPT abil loodud sisu rikub autoriõigusi, soovitame konsulteerida spetsialistiga.

Kui autoriõiguse omanik osutab autoriõiguste rikkumisele, võib see kaasa tuua tsiviilvastutuse (kahjude hüvitamine, valuraha, kasutamise keelamine, maine taastamine jms õiguslikud meetmed) või kriminaalvastutuse (avalik-õiguslik süütegu). Ettevõtete puhul võib kohalduda kahepoolne karistus, mis tähendab, et karistused võivad kehtida nii üksikisikutele kui ka juriidilistele isikutele, mis võib põhjustada suuremat kahju.

Samuti on vajalik olla ettevaatlik isikuandmete ja privaatsuse osas, näiteks mitte sisestada neid ChatGPT-sse. Nagu eespool mainitud, isegi kui isikuandmed on kogemata ChatGPT-sse sisestatud, ei salvesta ega jälgi ChatGPT isikuandmeid ning ei saa neid vestluses väljastada. Siiski on see OpenAI poliitika ja teistel platvormidel või teenustel võivad kehtida erinevad reeglid.

Isikuandmete lekke riski kohta saate lugeda järgnevast artiklist:

Seotud artikkel: Ettevõtte isikuandmete lekke risk ja kahjude hüvitamine[ja]

Riskid tahtmatult kahjuliku sisu loomisel

Riskid tahtmatult kahjuliku sisu loomisel

ChatGPT poolt õpitud andmete sisu ja esitatud juhiste põhjal võib tekkida oht kahjuliku sisu loomiseks. Kui ChatGPT loodud sisu avaldatakse ilma kontrollimata, võib see kahjustada ettevõtte mainet või brändi väärtust ning viia isegi juriidiliste probleemideni.

Kuigi ChatGPT on seadistatud nii, et see ei loo ega väljasta kahjulikku sisu, võib kahjuliku programmi koodi või petturlikke teenuseid olla keeruline tuvastada ja need võivad siiski väljundisse sattuda. Selliste riskide teadvustamine on oluline ning nõuab loodud sisu pidevat kontrollimist.

Kasutustingimuste mõistmine ja ChatGPT kasutamisest tulenevate riskide vältimine

ChatGPT ärilisel kasutamisel on oluline vältida riske, järgides esmalt OpenAI kasutustingimusi ja privaatsuspoliitikat. Kuna kasutustingimusi uuendatakse tihti, peavad ettevõtted, kes soovivad ChatGPT-d äritegevuses kasutada, olema kursis viimaste muudatustega ja mõistma kehtivaid tingimusi.

Seotud artikkel: OpenAI kasutustingimuste selgitus ja ärilise kasutamise tähelepanekohad[ja]

Vajalikud sammud ChatGPT-i ärilises kasutuses riskide vältimiseks

Ettevõttesiseste reeglite loomine

Et vältida ChatGPT-ga seotud riske ja kasutada seda äris korrektselt, on ettevõtetel vaja järgida teatud haldusstruktuuri.

Ettevõttesiseste reeglite loomine

2023. aasta (Reiwa 5. aasta) 1. mail avaldas Üldine Jaapani Süvaõppe Ühing (JDLA) ChatGPT-ga seotud eetiliste, õiguslike ja sotsiaalsete küsimuste (ELSI) ülevaate ning “Generatiivse AI kasutamise juhendi”. Nii tööstuse, akadeemia kui ka valitsussektori erinevates valdkondades on juhendi väljatöötamist arutatud.

ChatGPT-i ettevõttesse juurutamisel on oluline tõsta töötajate teadlikkust infoturvalisusest ja korraldada sisekoolitusi, kuid soovitatav on koostada ka oma ettevõtte ChatGPT-i kasutamise juhend. Selge ja täpse juhendi koostamine ning selle levitamine aitab teatud riske maandada.

Viide: Üldine Jaapani Süvaõppe Ühing (JDLA) | “Generatiivse AI kasutamise juhend[ja]

ChatGPT kasutamise eest vastutava isiku määramine

ChatGPT kasutamise eest vastutava isiku määramine ettevõttes on samuti efektiivne viis riskide maandamiseks.

ChatGPT käitumise jälgimine, genereeritud tulemuste korrigeerimine ja andmete haldamine on tegevused, mis sarnanevad üldiselt süsteemiauditiga. Süsteemiaudit on objektiivne hinnang infotehnoloogiasüsteemide efektiivsusele, turvalisusele ja usaldusväärsusele, mille eesmärk on äriprotsesside efektiivistamine ja organisatsiooni muutuste toetamine. Vastutava isiku määramine aitab suurendada operatsioonide läbipaistvust ja vastutust.

Kokkuvõte: ChatGPT ärilisel kasutamisel on hädavajalikud riskide maandamise meetmed

Siin oleme üksikasjalikult selgitanud riske ja meetmeid, mis on seotud ChatGPT ärilise kasutamisega.

ChatGPT ja teiste kiiresti arenevate AI äritehnoloogiate puhul on hädavajalikud mitmesugused õiguslikud riskid ja nendega tegelemiseks on vaja AI-tehnoloogiate tundmist omavaid spetsialiste. See hõlmab ettevõttesiseste juhendite väljatöötamist, ärimudelite seaduslikkuse hindamist, lepingute ja kasutustingimuste koostamist, intellektuaalomandi õiguste kaitset ning privaatsusega seotud küsimusi.

Meie büroo poolt pakutavad meetmed

Monolith õigusbüroo on IT ja eriti interneti ning õiguse valdkonnas rikkaliku kogemusega õigusbüroo. AI äris kaasnevad paljud õiguslikud riskid ning AI-ga seotud õigusküsimustes pädevate advokaatide tugi on hädavajalik.

Meie büroo pakub AI-alaste teadmistega advokaatide ja inseneride meeskonna kaudu mitmesugust õigusabi AI äridele, sealhulgas ChatGPT-le. Allpool olevas artiklis on toodud täpsemad üksikasjad.

Monolith õigusbüroo tegevusvaldkonnad: AI (sh ChatGPT) õigusteenused[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Tagasi üles