MONOLITH LAW OFFICE+81-3-6262-3248Arkisin 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Mitä riskejä liittyy ChatGPT:n käyttöön liiketoiminnassa? Selitys myös oikeudellisista ongelmista

IT

Mitä riskejä liittyy ChatGPT:n käyttöön liiketoiminnassa? Selitys myös oikeudellisista ongelmista

ChatGPT on kerännyt maailmanlaajuista huomiota hyödyllisyytensä ansiosta sen julkaisusta lähtien. Samalla on tullut tunnetuksi, että sen käyttöön liittyy erilaisia riskejä. Lainsäädännön kehittäminen on vielä kesken, ja on totta, että monet yritysjohtajat ovat huolissaan ChatGPT:n liiketoiminnassa käytön riskeistä ja niiden hallinnan keinoista.

Tässä artikkelissa käsitellään ChatGPT:n liiketoiminnassa käytön oikeudellisia riskejä ja niiden hallintakeinoja.

ChatGPT:n hyödyntämisen neljä riskiä liiketoiminnassa

Yrityksissä on edistytty luonnollista kieltä tuottavan AI:n, kuten ChatGPT:n, hyödyntämisessä, ja vuonna 2022 (Reiwa 5) yritysten käyttöönottoaste oli 13,5 %, ja jos mukaan lasketaan “suunnitteilla olevat käyttöönotot”, prosenttiosuus nousee 24,0 %:iin. (Lähde: Japanin Yleisministeriö | Reiwa 5 (2023) vuoden tieto- ja viestintävalkoinen kirja, viestinnän käyttötrenditutkimus “Yritysten IoT:n ja AI:n kaltaisten järjestelmien ja palveluiden käyttöönotto”[ja])

Kyllä, ChatGPT:n kaltaiset AI-teknologiat ovat tehokkaita yritysten toiminnan tehostamisessa ja ne voivat tarjota lisää liiketoimintamahdollisuuksia. Toisaalta ne tuovat mukanaan myös monia oikeudellisia riskejä. Siksi on tärkeää ymmärtää riskit kunnolla ja tehdä päätös liiketoiminnan hyödyntämisestä niiden pohjalta.

Esimerkiksi tekijänoikeuskysymykset, väärän tiedon leviäminen, luottamuksellisen tiedon vuotaminen, yksityisyyden suojaan liittyvät ongelmat ja kyberhyökkäysten väärinkäyttö ovat kaikki potentiaalisia riskejä, joista AI:n käytössä asiantuntijat varoittavat.

Tässä luvussa käsitellään neljää riskiä, jotka liittyvät ChatGPT:n hyödyntämiseen liiketoiminnassa.

Oppimistoiminnon aiheuttama tietovuodon riski

ChatGPT on kätevä, mutta koska se on AI-chatbot, joka on luotu oppimalla erilaisia tietoja internetistä, on olemassa riski, että syötetty tieto vuotaa, jos ei ryhdytä mihinkään toimenpiteisiin. Tämä tieto voi päätyä oppimismateriaaliksi.

OpenAI:n tietojenkäyttöpolitiikan mukaan, ellei käyttäjä käytä ChatGPT:n “API”:a tai hae “opt-out” -vaihtoehtoa, OpenAI kerää ja käyttää (oppii) käyttäjän ChatGPT:lle syöttämiä tietoja.

On tärkeää olla varovainen eikä syöttää henkilökohtaisia tai luottamuksellisia tietoja, kuten salaisuuksia, ilman asianmukaisia toimenpiteitä. Vaikka henkilökohtaisia tietoja syötettäisiin ChatGPT:lle vahingossa, näyttöön tulee varoitusviesti, ja ChatGPT on suunniteltu niin, ettei se tallenna tai seuraa henkilökohtaisia tietoja eikä voi tuottaa niitä chatissa.

Toisaalta on ollut tapauksia, joissa ChatGPT:ta hallinnoivan OpenAI:n järjestelmässä oleva bugi on aiheuttanut käyttäjien rekisteröityjen henkilötietojen vuotamisen.

Liittyvä artikkeli: Mitä ovat ChatGPT:n tietovuodon riskit? Esittelemme neljä toimenpidettä, jotka kannattaa ottaa[ja]

Tiedon luotettavuuden puutteeseen liittyvä riski

Tiedon luotettavuuden puutteeseen liittyvä riski

Toukokuusta 2023 alkaen ChatGPT:n verkkoselaustoiminnon käyttöönoton myötä ChatGPT on kyennyt keräämään ajantasaisia tietoja ja vastaamaan niihin perustuen.

Kuitenkin, vaikka ChatGPT tuottaa vastauksia ikään kuin ne olisivat totuudenmukaisia, sen tiedon luotettavuus ei ole taattu. ChatGPT:n generoimat vastaukset eivät perustu oppimisaineiston tietojen tarkkuuteen, vaan ne ovat todennäköisyyspohjaisesti tuotettuja (mahdollisimman todennäköisiä) tekstejä. Siksi ChatGPT:n vastauksia on aina tarkistettava faktantarkistuksen avulla. Jos yritys levittää ChatGPT:n vastausten perusteella virheellistä tietoa, voi se vaarantaa yrityksen maineen.

3. huhtikuuta 2023 Tokion yliopisto ilmaisi huolensa ChatGPT:n teknisistä haasteista ja sen mahdollisista vaikutuksista tulevaisuuden yhteiskuntaan julkaisemalla seuraavan lausunnon:

“ChatGPT:n periaate perustuu suurten määrien olemassa olevien tekstien ja sisältöjen koneoppimiseen ja vahvistusoppimiseen, joiden avulla luodaan todennäköisyyspohjaisesti uskottavia tekstejä. Tästä syystä kirjoitetussa sisällössä voi olla valheita. Se on kuin keskustelisi erittäin puheliaan ‘tietäjän’ kanssa. (Toisaalta uusin versio GPT-4 on huomattavasti tarkempi ja erittäin pätevä keskustelukumppani.) ChatGPT:n tehokas käyttö edellyttää asiantuntemusta, vastausten kriittistä tarkastelua ja tarvittaessa korjaamista. Lisäksi ChatGPT ei pysty analysoimaan tai kuvailemaan uusia tietoja, joita ei ole olemassa olevassa tiedossa. Toisin sanoen, ChatGPT:n olemassaolo ei tarkoita, että ihmiset voivat laiminlyödä opiskelun tai tutkimuksen. Kuitenkin, jos kulttuurisesti ja asiantuntemukseltaan varustettu henkilö analysoi vastauksia kriittisesti ja käyttää niitä taitavasti, se voi merkittävästi parantaa rutiinityön tehokkuutta.” on huomautettu.

Lähde: Tokion yliopisto | ‘Generatiivinen AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion jne.)[ja]

Tekijänoikeusrikkomukset ja yksityisyyden loukkaukset sekä muut oikeudelliset riskit

ChatGPT:n tekijänoikeusrikkomusten arviointi jakautuu “AI:n kehitys- ja oppimisvaiheeseen” sekä “tuotannon ja käytön vaiheeseen”. Koska kummassakin vaiheessa käytetään teoksia eri tavoin, sovellettavat tekijänoikeuslain pykälät vaihtelevat. Siksi on tärkeää käsitellä näitä kahta vaihetta erikseen.

Viite: Japanin kulttuurivirasto | Reiwa 5 (2023) vuoden tekijänoikeusseminaari “AI ja tekijänoikeudet”[ja]

Tammikuussa 2019 voimaan tulleessa tekijänoikeuslain uudistuksessa lisättiin 30 artiklan 4 kohtaan “AI:n kehitys- ja oppimisvaihe”, joka on uusi oikeuksien rajoituspykälä (poikkeus, joka ei vaadi lupaa). AI:n kehitystä varten tehtävä tietoanalyysi ja muut käyttötavat, jotka eivät tähtää teoksissa ilmaistujen ajatusten tai tunteiden nauttimiseen, voidaan pääsääntöisesti suorittaa ilman tekijänoikeuden haltijan lupaa.

Toisaalta, jos ChatGPT:n tuottamassa aineistossa havaitaan samankaltaisuutta tai riippuvuutta (muokkausta) olemassa oleviin teoksiin, se voi johtaa tekijänoikeusrikkomukseen. Siksi ennen julkaisemista on tärkeää tarkistaa ChatGPT:n viittaamien tietojen oikeudenhaltijat ja varmistaa, ettei ChatGPT:n luomassa materiaalissa ole samankaltaista sisältöä. Kun teoksia lainataan, on lähde selkeästi mainittava (oikeuksien rajoituspykälä), ja kun teoksia kopioidaan, on saatava tekijänoikeuden haltijan lupa ja käsiteltävä asia asianmukaisesti.

OpenAI:n käyttöehtojen mukaan ChatGPT:n luoma sisältö on kaupallisesti hyödynnettävissä, mutta jos on epäselvää, rikkooko ChatGPT:n avulla luotu sisältö tekijänoikeuksia, on suositeltavaa konsultoida asiantuntijaa.

Jos tekijänoikeuden haltija syyttää tekijänoikeusrikkomuksesta, voi seurata siviilioikeudellisia vastuita (vahingonkorvaukset, hyvitysmaksut, käytön kieltäminen, maineen palauttaminen) tai rikosoikeudellisia seuraamuksia (kannatusrikos). Yritysten tapauksessa voi soveltua kaksoisrangaistussäännös, joka voi johtaa sekä yksilöiden että oikeushenkilöiden rangaistuksiin, mikä voi lisätä vahinkoa.

Henkilötietojen ja yksityisyyden suhteen on myös tärkeää olla syöttämättä niitä ChatGPT:lle. Kuten aiemmin mainittiin, vaikka henkilötiedot syötettäisiin ChatGPT:lle vahingossa, se ei tallenna eikä seuraa henkilötietoja, eikä voi tuottaa niitä chatissa. Tämä on kuitenkin OpenAI:n politiikkaa, ja muilla alustoilla tai palveluissa voi olla eri käytäntöjä.

Henkilötietojen vuotamisen riskistä kerrotaan lisää seuraavassa artikkelissa, joten suosittelemme lukemaan sen.

Liittyvä artikkeli: Yrityksen henkilötietojen vuotaminen ja vahingonkorvausriski[ja]

Riskinä tahattoman haitallisen sisällön luominen

Riskinä tahattoman haitallisen sisällön luominen

ChatGPT:n oppimien tietojen sisältö tai käyttäjän antamat ohjeet voivat johtaa haitallisen sisällön luomiseen. Jos ChatGPT:n luomaa sisältöä julkaistaan tarkistamatta, se voi vahingoittaa yrityksen mainetta tai brändin arvoa ja johtaa jopa oikeudellisiin ongelmiin.

Haitallisen sisällön luominen on estetty ChatGPT:ssä, mutta haitallisten ohjelmakoodien tai petollisten palveluiden tunnistaminen voi olla haastavaa, ja ne saattavat päätyä tuotettuun sisältöön. Tästä syystä on tärkeää, että luodun sisällön tarkistaminen on jatkuvaa ja systemaattista, jotta tällaiset riskit voidaan minimoida.

Käyttöehtojen ymmärtäminen ja ChatGPT:n käytöstä johtuvien riskien välttäminen

ChatGPT:n liiketoiminnallisessa käytössä on ensiarvoisen tärkeää välttää riskejä noudattamalla OpenAI:n käyttöehtoja ja tietosuojakäytäntöjä. Käyttöehdot päivittyvät usein, joten liiketoiminnassa niitä hyödyntäessä on tärkeää tarkistaa mahdolliset muutokset ja pysyä ajan tasalla viimeisimmistä ehdoista.

Liittyvä artikkeli: OpenAI:n käyttöehtojen selitys ja kaupallisessa käytössä huomioitavat seikat[ja]

Välttämättömät toimenpiteet ChatGPT:n liiketoimintakäytön riskien välttämiseksi

Yrityssääntöjen luominen

ChatGPT:n sisältämien riskien välttämiseksi ja sen asianmukaiseksi hyödyntämiseksi liiketoiminnassa yrityksiltä vaaditaan seuraavanlaista hallintajärjestelmää.

Yrityssääntöjen luominen

1. toukokuuta 2023 (Reiwa 5), Japanin yleinen yhdistys Deep Learning Association (JDLA) kokosi yhteen ChatGPT:n eettiset, lailliset ja sosiaaliset kysymykset (ELSI) ja julkaisi “Generatiivisen AI:n käyttöohjeet”. Myös teollisuuden, akateemisen maailman ja hallinnon eri sektoreilla edistetään ohjeiden laatimista.

ChatGPT:n yrityskäyttöönotossa on tärkeää lisätä henkilökohtaista tietoturvatietoisuutta ja järjestää sisäistä koulutusta, mutta on suositeltavaa laatia myös oma ChatGPT:n käyttöohjeistus. Laatimalla ja levittämällä selkeät säännöt yrityksen ChatGPT:n käytölle, voidaan odottaa tiettyjen riskien välttämistä.

Viite: Japanin yleinen yhdistys Deep Learning Association (JDLA) | “Generatiivisen AI:n käyttöohjeet[ja]

Valvojan asettaminen ChatGPT:n käytölle

ChatGPT:n käytön valvojan asettaminen yrityksen sisälle ja ohjeistuksen jatkuvan seurannan ja riskien hallinnan toteuttaminen on myös tehokas tapa välttää riskejä.

ChatGPT:n toiminnan valvonta, tuotosten korjaaminen ja datan hallinta ovat auditointia, joka on luonteeltaan lähellä järjestelmäauditointia. Järjestelmäauditointi on objektiivinen arviointi tietojärjestelmien tehokkuudesta, turvallisuudesta ja luotettavuudesta, ja sen tarkoituksena on edistää liiketoiminnan tehostamista ja organisaation muutostukea. Valvojan asettaminen auditointia varten voi myös vahvistaa toiminnan läpinäkyvyyttä ja vastuullisuutta.

Yhteenveto: ChatGPT:n liiketoimintakäytössä riskienhallintatoimenpiteet ovat välttämättömiä

Tässä osiossa olemme käsitelleet yksityiskohtaisesti ChatGPT:n liiketoimintakäytön riskejä ja niiden hallintakeinoja.

ChatGPT:n kaltaisten nopeasti kehittyvien AI-liiketoimintojen osalta on välttämätöntä laatia yrityksen sisäisiä käyttöohjeita, arvioida liiketoimintamallien laillisuutta, luoda sopimuksia ja käyttöehtoja, suojata immateriaalioikeuksia sekä varmistaa yksityisyydensuoja. Näihin liittyvissä juridisissa riskeissä ja toimenpiteissä on hyödyllistä konsultoida AI-teknologiaan perehtyneitä asiantuntijoita.

Toimenpiteemme teidän turvanne takaamiseksi

Monolith Lakitoimisto on IT-alan, erityisesti internetin ja oikeudellisten kysymysten, rikkaan kokemuksen omaava lakifirma. AI-liiketoimintaan liittyy monia oikeudellisia riskejä, ja on välttämätöntä saada tukea asianajajilta, jotka ovat perehtyneet AI:n oikeudellisiin ongelmiin.

Toimistomme tarjoaa monipuolista oikeudellista tukea AI-liiketoimintaan, mukaan lukien ChatGPT, yhdistämällä AI-asiantuntijoista ja insinööreistä koostuvan tiimin. Lisätietoja on saatavilla alla olevassa artikkelissa.

Monolith Lakitoimiston palvelualueet: AI (kuten ChatGPT) oikeudelliset palvelut[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

TOPへ戻る