ChatGPT:n yrityskäyttöönoton riskit: Selitys luottamuksellisen tiedon vuotamisen tapauksista ja niiden torjuntakeinoista
Yritysten sisällä ChatGPT:n käyttöönotto etenee hiljalleen. Sen hyödyllisyyteen kohdistuu kasvavaa huomiota, mutta on olemassa useita seikkoja, joihin tulee kiinnittää huomiota. Yksi näistä on se, että ChatGPT:lle ei tule syöttää luottamuksellista tietoa. Todellisuudessa on olemassa tapauksia ulkomailla, joissa luottamuksellisen tiedon syöttäminen on johtanut yrityksen vakaviin tietovuotoihin.
Tässä artikkelissa asianajajamme käsittelevät ChatGPT:n liiketoiminnallisessa käytössä päivittäin kehittyvän teknologian osalta erityisesti luottamuksellisen tiedon vuotoriskejä, esimerkkitapauksia ja ryhtymistä vaativia toimenpiteitä.
Syyt, miksi ei tulisi syöttää luottamuksellista tietoa ChatGPT:lle
ChatGPT on kätevä, mutta koska se on tekoälypohjainen chatbot, joka oppii internetin big datasta ja käyttäjien syöttämästä tiedosta, luottamuksellisen tiedon syöttäminen ilman asianmukaisia varotoimia voi johtaa tietovuotojen riskiin.
Tarkastelemme myöhemmin yksityiskohtaisesti keinoja hallita luottamuksellisen tiedon vuotamisen riskejä, mutta ensin käymme läpi muita ChatGPT:hen liittyviä riskejä, jotka eivät liity luottamuksellisen tiedon vuotamiseen.
ChatGPT:n käyttöön liittyvät yritysten kohtaamat riskit, jotka eivät liity luottamuksellisen tiedon vuotamiseen
ChatGPT on tällä hetkellä monien yritysten käyttöönottovaiheessa. Tästä syystä on tärkeää ymmärtää siihen liittyvät riskit ennen kuin päätetään sen hyödyntämisestä liiketoiminnassa.
ChatGPT:n käytöstä yrityksille aiheutuvat turvallisuusriskit, jotka eivät liity luottamuksellisen tiedon (mukaan lukien henkilötiedot) vuotamiseen, sisältävät seuraavat kaksi seikkaa:
- Tiedon luotettavuuden riski
- Tekijänoikeusrikkomuksen riski
Käymme läpi kumpaakin näistä tarkemmin.
Ulostulleen tiedon luotettavuuden puute
GPT-4, joka julkaistiin 14. maaliskuuta 2023, on varustettu hakutoiminnolla, mikä mahdollistaa ajantasaisen tiedon tarjoamisen. ChatGPT kuitenkin tuottaa vastauksia ikään kuin ne olisivat totuudenmukaisia, mutta niiden luotettavuus ei ole taattu. ChatGPT:n generoimat vastaukset eivät perustu tiedon tarkkuuteen vaan ne ovat todennäköisyyspohjaisia (mahdollisimman todennäköisiä) tekstejä. Siksi ennen ulostulleen tiedon käyttöä on välttämätöntä tehdä faktantarkistus. Jos yritys vahingossa levittää väärää tietoa, voi se vahingoittaa yrityksen mainetta.
Tekijänoikeusrikkomuksen ja muiden oikeudellisten riskien mahdollisuus
ChatGPT:n tekijänoikeusrikkomuksen arviointi jakautuu kahteen vaiheeseen: ‘AI:n kehitys- ja oppimisvaihe’ ja ‘tuotannon ja käytön vaihe’. Koska kummassakin vaiheessa käytetään teoksia eri tavoin, sovelletaan myös eri tekijänoikeuslain pykäliä. Näitä kahta tulee siis tarkastella erikseen.
Viite: Japanin kulttuurivirasto | Reiwa 5 (2023) vuoden tekijänoikeusseminaari ‘AI ja tekijänoikeus'[ja]
Tammikuussa 2019 voimaan tullut uudistettu tekijänoikeuslaki sisältää uuden ‘AI:n kehitys- ja oppimisvaiheen’ oikeuksien rajoitusmääräyksen (lupaamattomat poikkeussäännökset) artiklan 30-4. AI:n kehitystä varten tehtävä tiedonanalyysi, kuten teosten käyttö, joka ei tähtää niissä ilmaistujen ajatusten tai tunteiden nauttimiseen, on periaatteessa mahdollista suorittaa ilman tekijänoikeuden haltijan lupaa.
Toisaalta, jos ChatGPT:n tuottamassa materiaalissa havaitaan samankaltaisuutta tai riippuvuutta (muokkausta) olemassa oleviin teoksiin, se voi johtaa tekijänoikeusrikkomukseen. Siksi ennen julkaisemista on tärkeää tarkistaa ChatGPT:n viittaamien tietojen oikeudenhaltijat ja varmistaa, ettei ChatGPT:n luoma materiaali ole samankaltaista. Kun teoksia lainataan, on lähde mainittava selkeästi (oikeuksien rajoitusmääräykset), ja jos teoksia kopioidaan, on saatava tekijänoikeuden haltijan lupa ja käsiteltävä asia asianmukaisesti.
Jos tekijänoikeuden haltija väittää tekijänoikeusrikkomusta, voi seurata siviilioikeudellisia seuraamuksia (vahingonkorvaus, hyvitysmaksut, käytön kieltäminen, maineen palauttaminen) tai rikosoikeudellisia seuraamuksia (kanteen nostaminen).
Tapauksia, joissa luottamuksellista tietoa on syötetty ChatGPT:lle
Korealainen media “EConomist” raportoi 30. maaliskuuta 2023, että Samsung Electronicsin puolijohdeyksikössä oli sattunut kolme tapausta, joissa oli syötetty luottamuksellista tietoa ChatGPT:lle sen jälkeen, kun sen käyttö oli hyväksytty.
Samsung Electronics oli tehnyt työntekijöilleen tietoturvaan liittyviä muistutuksia, mutta huolimatta tästä, työntekijät olivat lähettäneet lähdekoodia ohjelman korjauspyyntöjen yhteydessä (kahdessa tapauksessa) ja toinen työntekijä oli lähettänyt kokouksen sisältöä pöytäkirjan laatimista varten.
Näiden tapausten jälkeen yhtiö on rajoittanut kiireellisenä toimenpiteenä ChatGPT:lle lähetettävän tiedon määrää yhtä kysymystä kohden. Yhtiö on myös ilmoittanut, että mikäli vastaavanlaisia tapauksia ilmenee uudelleen, yhteyden katkaiseminen on mahdollista.
Lisäksi Walmart ja Amazon ovat varoittaneet työntekijöitään jakamasta luottamuksellista tietoa chatbotien kanssa. Amazonin lakimies on kertonut, että on jo havaittu tapauksia, joissa ChatGPT:n vastaukset muistuttavat Amazonin sisäisiä tietoja, mikä viittaa siihen, että tietoja on mahdollisesti käytetty oppimiseen.
Toimenpiteet luottamuksellisen tiedon vuotamisen estämiseksi ChatGPT:n käytössä
OpenAI selittää käyttöehtojaan ja muita asiakirjoja käsitellessään, että se käyttää järjestelmän parantamiseksi syötettyjä tietoja oppimiseen ja muihin tarkoituksiin, ja kehottaa käyttäjiä välttämään arkaluonteisen tiedon lähettämistä.
Tässä luvussa esittelemme neljä keinoa, joilla voit estää luottamuksellisen tiedon vuotamisen käyttäessäsi ChatGPT:tä, sekä laitteisto- että ohjelmistotasolla.
Yrityksen sisäisen käytön ohjeistuksen laatiminen
ChatGPT:n yrityskäyttöönoton yhteydessä on tärkeää paitsi parantaa henkilöstön tietoturvatietoisuutta ja edistää sisäistä uudelleenkoulutusta, myös laatia omat ChatGPT:n käyttöohjeet yritykselle.
1. toukokuuta 2023 (Reiwa 5), Japanin Deep Learning Association (JDLA) kokosi yhteen ChatGPT:n eettiset, lailliset ja sosiaaliset kysymykset (ELSI) ja julkaisi “Generatiivisen tekoälyn käyttöohjeet”. Myös teollisuuden, akateemisen maailman ja hallinnon eri sektoreilla on aloitettu ohjeistusten laatimisen harkinta.
Hyödyntämällä tätä tietoa yritys voi laatia kirjalliset ohjeet ChatGPT:n käytölle ja siten odottaa tiettyjen riskien välttämistä.
Viite: Japanin Deep Learning Association (JDLA) | Generatiivisen tekoälyn käyttöohjeet[ja]
Teknologian hyödyntäminen luottamuksellisen tiedon vuotamisen estämiseksi
Human errorin aiheuttaman luottamuksellisen tiedon vuodon estämiseksi voidaan ottaa käyttöön DLP (Data Loss Prevention) -järjestelmä, joka on suunniteltu estämään tiettyjen tietojen vuotaminen. Tämän järjestelmän avulla on mahdollista estää luottamuksellisen tiedon lähettäminen ja kopiointi.
DLP valvoo jatkuvasti syötettyjä tietoja ja tunnistaa sekä suojaa automaattisesti luottamukselliset ja tärkeät tiedot. DLP:n avulla, kun salassa pidettävää tietoa havaitaan, voidaan lähettää hälytys tai estää toiminto. Tämä mahdollistaa sisäisten tietovuotojen varman estämisen hallintakustannuksia säästäen. Kuitenkin, turvallisuusjärjestelmien syvällinen ymmärrys on välttämätöntä, ja teknologiaosastoa vailla oleville yrityksille sen sujuva käyttöönotto voi olla haastavaa.
Erikoistyökalun käyttöönoton harkitseminen
Maaliskuusta 2023 (Reiwa 5) lähtien ChatGPT:ssä on mahdollista käyttää API:a (Application Programming Interface, ohjelmointirajapinta, joka yhdistää ohjelmistot, ohjelmat ja verkkopalvelut), joka estää lähetettyjen tietojen vuotamisen ChatGPT:lle.
API:n kautta lähetettyjä tietoja ei käytetä oppimiseen tai parantamiseen, mutta ne säilytetään 30 päivän ajan “väärinkäytön ja virheellisen käytön estämiseksi tehtävän valvonnan” vuoksi, minkä jälkeen ne poistetaan muutetun säilytyskäytännön mukaisesti. On kuitenkin mahdollista, että “oikeudellisen vaatimuksen” tapauksessa tietojen säilytysaikaa voidaan pidentää.
Näin ollen, vaikka ChatGPT:n asetukset estäisivät sen käyttämisen oppimiseen tai parantamiseen, tietoja säilytetään palvelimella tietyn ajan, joten teoriassa tietovuodon riski on olemassa. Siksi on tärkeää olla erittäin varovainen syöttäessäsi luottamuksellista tai henkilökohtaista tietoa.
OpenAI kuitenkin painottaa käyttäjien yksityisyyttä ja tietojen turvallisuutta ja on toteuttanut tiukkoja turvatoimia. Jos haluat käyttää palvelua turvallisemmin, suosittelemme käyttämään ‘Azure OpenAI Service’ -nimistä työkalua, joka mahdollistaa edistyneet turvatoimet.
Azure OpenAI Service on yrityskäyttöön erikoistunut työkalu, ja sen kautta ChatGPT:lle API:n kautta syötetyt tiedot eivät keräänny. Lisäksi, jos teet opt-out -pyynnön ja se hyväksytään, voit periaatteessa kieltäytyä 30 päivän tietojen säilytyksestä ja valvonnasta, mikä vähentää tietovuodon riskiä.
Kuinka estää ChatGPT:tä oppimasta syöttämääsi luottamuksellista tietoa
Kuten aiemmin mainittiin, ChatGPT oppii kaiken opt-in-sisällön, mutta alkaen 25. huhtikuuta 2023 (Reiwa 5), on käytössä toiminto, jolla voi asettaa järjestelmän ennakkoon opt-out-tilaan.
Suorana ennaltaehkäisevänä toimenpiteenä, jos haluat kieltää ChatGPT:tä käyttämästä syöttämiäsi tietoja oppimiseen ja parantamiseen, sinun on tehtävä ‘opt-out’ -pyyntö. ChatGPT:lle on valmisteltu ‘opt-out’ Google-lomake, joten on suositeltavaa suorittaa tämä toimenpide. (Syötä sähköpostiosoitteesi, organisaatiosi ID ja nimi ja lähetä tiedot)
Kuitenkin, vaikka tämä toimenpide on tehty, OpenAI säilyttää syöttämäsi tiedot palvelimellaan valvontaa varten tietyn ajan (periaatteessa 30 päivää).
ChatGPT:n käyttöehdot
3. Sisältö
(c) Sisällön käyttö palveluiden parantamiseksi
Emme käytä sisältöä, jonka toimitat tai vastaanotat API:stamme (“API-sisältö”), palveluidemme kehittämiseen tai parantamiseen.
Voimme käyttää sisältöä muista kuin API-palveluistamme (“ei-API-sisältö”) auttaaksemme kehittämään ja parantamaan palveluitamme.
Jos et halua, että ei-API-sisältöäsi käytetään palveluiden parantamiseen, voit valita sen pois täyttämällä tämän lomakkeen. Huomaa, että joissakin tapauksissa tämä voi rajoittaa palveluidemme kykyä vastata paremmin erityiseen käyttötapaukseesi.
Jos et toivo, että ei-API-sisältöäsi käytetään palveluiden parantamiseen, voit valita sen pois täyttämällä tämän lomakkeen.
Huomioithan, että joissakin tapauksissa tämä voi rajoittaa palveluidemme kykyä paremmin vastata erityiseen käyttötapaukseesi.
Lähde: OpenAI:n virallinen sivusto | ChatGPT:n käyttöehdot https://openai.com/policies/terms-of-use
Yhteenveto: ChatGPT:n liiketoimintakäytössä on välttämätöntä ryhtyä toimenpiteisiin luottamuksellisen tiedon käsittelyn osalta
Yllä olemme käsitelleet ChatGPT:n liiketoimintakäytön yhteydessä ilmeneviä luottamuksellisen tiedon vuotoriskejä ja niiden hallintakeinoja esimerkkien valossa.
ChatGPT:n kaltaisten nopeasti kehittyvien AI-liiketoimintojen osalta on välttämätöntä laatia sisäisiä käyttöohjeita, arvioida liiketoimintamallien laillisuutta, luoda sopimuksia ja käyttöehtoja, suojata immateriaalioikeuksia sekä huolehtia yksityisyydensuojasta. Näissä asioissa asiantuntijoiden apu on korvaamatonta.
Liittyvä artikkeli: Mikä on Web3-laki? Selitämme myös keskeiset seikat, jotka yritysten on syytä huomioida[ja]
Toimenpiteemme teidän turvaksenne
Monolith Lakitoimisto on IT-alan, erityisesti internetin ja oikeudellisten kysymysten, rikkaan kokemuksen omaava lakitoimisto. AI-liiketoimintaan liittyy monia oikeudellisia riskejä, ja tekoälyyn liittyvissä oikeudellisissa ongelmissa on välttämätöntä saada tukea asianajajilta, jotka ovat perehtyneet AI:n juridiikkaan.
Toimistomme tarjoaa AI-alan asiantuntijoista ja insinööreistä koostuvan tiimin avulla korkeatasoista oikeudellista tukea AI-liiketoiminnalle, mukaan lukien ChatGPT, sopimusten laatimisessa, liiketoimintamallien laillisuuden arvioinnissa, immateriaalioikeuksien suojelussa ja yksityisyyden suojaamisessa. Lisätietoja on kirjoitettu alla olevassa artikkelissa.
Monolith Lakitoimiston palvelualueet: AI (muun muassa ChatGPT) oikeudelliset palvelut[ja]
Category: IT
Tag: ITTerms of Use