A ChatGPT vállalati bevezetésének kockázatai: példák az érzékeny információk szivárgására és az ellenük való védekezésre
A vállalatokon belül egyre inkább terjed a ChatGPT használata. Bár egyre nagyobb figyelem összpontosul a hasznosságára, vannak olyan szempontok, amelyekre különösen oda kell figyelni. Az egyik ilyen, hogy a ChatGPT-be nem szabad bizalmas információkat bevinni. Külföldön már történtek esetek, amikor a bizalmas információk megadása súlyos vállalati titokszivárgáshoz vezetett.
Ebben a cikkben egy ügyvéd magyarázza el a napról napra fejlődő ChatGPT üzleti felhasználását, különös tekintettel a bizalmas információk szivárgásának kockázatára, példákat és a megfelelő intézkedéseket ismertetve.
Miért nem szabad bizalmas információkat megadni a ChatGPT-nek
A ChatGPT ugyan hasznos eszköz, de mivel egy olyan AI chatbot, amely az interneten elérhető nagy adatmennyiségeket és a felhasználói adatokat tanulmányozva jön létre, ha nem teszünk megfelelő óvintézkedéseket, fennáll a veszélye, hogy a megadott bizalmas információk kiszivárognak.
A bizalmas információk kiszivárgásának kockázatkezeléséről részletesen később fogunk beszélni, de először ismertetjük a ChatGPT-vel kapcsolatos egyéb kockázatokat, amelyek nem állnak összefüggésben a bizalmas információk szivárgásával.
A ChatGPT használatával járó vállalati kockázatok a bizalmas információk szivárgásán túl
A ChatGPT jelenleg számos vállalatnál bevezetés alatt álló tesztelési fázisban van. Ezért fontos, hogy a kockázatokat teljes mértékben megértve döntsünk a ChatGPT üzleti célú alkalmazásáról.
A ChatGPT használatával a vállalatok által viselt bizalmas információk (beleértve a személyes adatokat) szivárgásán kívüli biztonsági kockázatok a következő két pontban foglalhatók össze:
- A kimenő információk hitelességének kockázata
- A be- és kimenő információk szerzői jogi kockázata
Ezeket részleteiben is kifejtjük.
A kimenő információk hitelességének hiánya
A 2023. március 14-én (2023) közzétett GPT-4 már rendelkezik keresési funkcióval, így képes legfrissebb információkat szolgáltatni. Azonban a ChatGPT válaszai, bár úgy tűnhetnek, mintha igazak lennének, nem garantált a hitelességük. A ChatGPT által generált válaszok nem a tanulási adatok pontosságán alapulnak, hanem csupán a legvalószínűbbnek ítélt szövegeket állítják elő. Ezért a kimeneti eredmények felhasználása előtt elengedhetetlen a tények ellenőrzése. Ha egy vállalat véletlenül hamis információt közöl, az a vállalat hírnevének sérüléséhez vezethet.
Szerzői jogi és egyéb jogi kockázatok
A ChatGPT esetében a szerzői jogi kérdések az „AI fejlesztési és tanulási szakasz” és a „generálási és felhasználási szakasz” során különbözően értékelendők. Mivel a két szakaszban eltérő a szerzői művek felhasználása, így a szerzői jogi törvények is különböznek. Ezért fontos, hogy ezeket külön-külön kezeljük.
Referencia: Bunka-cho | Reiwa 5 (2023) évi szerzői jogi szeminárium „AI és szerzői jog”[ja]
A 2019. januárban (2019) hatályba lépett módosított szerzői jogi törvény a jogkorlátozó rendelkezések közé (az engedély nélküli kivételek) új szabályként bevezette az „AI fejlesztési és tanulási szakaszt”. Az AI fejlesztése céljából végzett információelemzés, mint például a szerzői művekben kifejezett gondolatok vagy érzelmek élvezetére nem irányuló felhasználások, alapvetően engedély nélkül végezhetők.
Másrészről, ha a ChatGPT által generált kimenetek hasonlóságot vagy függőséget (módosítást) mutatnak a szerzői művekkel, akkor az szerzői jogi sérelemnek minősülhet. Ezért a közzététel előtt fontos ellenőrizni a ChatGPT által hivatkozott információk jogtulajdonosait, és meggyőződni arról, hogy a ChatGPT által létrehozott tartalom nem hasonlít-e a már létező művekre. Amennyiben szerzői műveket idézünk, meg kell jelölni a forrást (jogkorlátozó rendelkezések), vagy ha átiratot készítünk, szükséges a szerzői jog tulajdonosának engedélyét megszerezni, és megfelelően kell kezelni a helyzetet.
Amennyiben a szerzői jog tulajdonosa szerzői jogi sérelmet állapít meg, a vállalat polgári felelősséggel (kártérítés, sérelemdíj, használati tilalom, hírnév helyreállítása és egyéb jogi intézkedések) vagy büntetőjogi felelősséggel (feljelentési bűncselekmény) számolhat.
Esettanulmány: Bizalmas információk ChatGPT-be történő bevitelével kapcsolatos problémák
2023. március 30-án a dél-koreai ‘EConomist’ média jelentette, hogy a Samsung Electronics félvezető részlegénél engedélyezték a ChatGPT használatát, aminek következtében három esetben került sor bizalmas információk bevitelére.
A Samsung Electronics részéről bár folyamatosan hívták fel a figyelmet az információbiztonságra, előfordult, hogy a dolgozók programjavítási kérelemmel összefüggésben forráskódot küldtek el (két esetben), illetve egy alkalmazott a jegyzőkönyv elkészítése céljából megosztotta a megbeszélés tartalmát.
Az incidensek után a vállalat sürgősségi intézkedésként korlátozta az egy kérdésre feltölthető adatmennyiséget a ChatGPT-nél. Továbbá, ha hasonló esetek ismét előfordulnának, nem zárják ki a lehetőségét annak, hogy megszakítsák a kapcsolatot a szolgáltatással.
Emellett a Walmart és az Amazon is figyelmezteti alkalmazottait, hogy ne osszanak meg bizalmas információkat a chatbotokkal. Az Amazon egyik ügyvédje szerint már volt példa arra, hogy a ChatGPT válaszai hasonlítottak az Amazon belső adataira, ami arra utalhat, hogy az adatok felhasználásra kerültek a tanulási folyamat során.
A ChatGPT használatával kapcsolatos bizalmas információk szivárgásának megelőzése
Az OpenAI a felhasználási feltételek között részletezi, hogy a rendszer fejlesztése érdekében a bevitt adatokat tanulásra és egyéb célokra használhatja, és arra kéri a felhasználókat, hogy ne küldjenek érzékeny információkat.
Ebben a fejezetben négy olyan intézkedést mutatunk be, amelyek segítségével a ChatGPT használata során megelőzhető a bizalmas információk szivárgása, mind hardveres, mind szoftveres szempontból.
Céges használatra vonatkozó irányelvek kidolgozása
A ChatGPT vállalati bevezetése során nemcsak a személyes információbiztonsági ismeretek fejlesztése és a vállalati újra- és továbbképzés fontos, hanem célszerű saját ChatGPT-használati irányelveket is kialakítani.
2023. május 1-jén (Reiwa 5) a Japán Deep Learning Association (JDLA) összefoglalta a ChatGPT etikai, jogi és társadalmi kérdéseit (ELSI), és közzétette a “Generatív AI használati irányelveit”. Az ipar, az akadémia és a kormányzati szektorokban is megkezdték az irányelvek kidolgozásának megfontolását.
Ezt figyelembe véve, ha a vállalat saját ChatGPT-használati szabályait írásba foglalja, bizonyos mértékű kockázatcsökkentésre számíthatunk.
Forrás: Japán Deep Learning Association (JDLA) | Generatív AI használati irányelvei[ja]
Technológiák alkalmazása az információszivárgás megelőzésére
Az emberi hibából eredő bizalmas információk szivárgásának megelőzésére egy olyan rendszert javaslunk bevezetni, amelyet DLP-nek (Data Loss Prevention – Adatvesztés Megelőzés) neveznek, és amely képes megakadályozni a különleges adatok szivárgását, így a bizalmas információk küldését és másolását is.
A DLP folyamatosan figyeli a bevitt adatokat, és automatikusan azonosítja és védi a bizalmas információkat és a fontos adatokat. A DLP használatával, ha érzékeny információkat észlel, képes értesítést küldeni vagy a műveletet blokkolni. Miközben a kezelési költségeket alacsonyan tartja, biztosítja az információszivárgás megelőzését belső szinten, azonban a biztonsági rendszerek magas szintű megértése szükséges, és a technikai részleggel nem rendelkező vállalatok számára a zökkenőmentes bevezetés nehézségeket jelenthet.
A szakosodott eszközök bevezetésének megfontolása
A ChatGPT-hez 2023 márciusától (2023) az API-t (az “Application Programming Interface” rövidítése, amely a szoftverek, programok és webes szolgáltatások közötti interfészt jelenti) használva megakadályozható, hogy a ChatGPT-nek küldött adatok kiszivárogjanak.
Az API-n keresztül továbbított adatok nem kerülnek felhasználásra tanulásra vagy fejlesztésre, de a “jogellenes felhasználás vagy visszaélés megelőzése érdekében történő monitorozás” céljából 30 napig tárolásra kerülnek, majd ezután törlésre kerülnek az új tárolási szabályzat szerint. Amennyiben “jogi követelés” érkezik, az adatok tárolási ideje meghosszabbodhat.
Mivel a ChatGPT beállításai ellenére az adatok bizonyos ideig a szerveren tárolódnak, elméletileg fennáll az információk kiszivárgásának kockázata. Ezért különös óvatosság szükséges, amikor bizalmas vagy személyes információkat adunk meg.
Az OpenAI azonban nagy hangsúlyt fektet a felhasználók magánéletének és adataik biztonságának védelmére, és szigorú biztonsági intézkedéseket alkalmaz. Ha még biztonságosabban szeretné használni a szolgáltatást, ajánlott a „Japanese Azure OpenAI Service” nevű, fejlett biztonsági intézkedéseket kínáló eszköz bevezetése.
A vállalatok számára kifejlesztett „Japanese Azure OpenAI Service” eszközön keresztül az API-n keresztül megadott adatokat nem gyűjtik össze. Továbbá, ha az opt-out kérelmet benyújtják és azt jóváhagyják, elutasítható az adatok 30 napos megőrzése és monitorozása is, így elkerülhető az információk kiszivárgásának kockázata.
Hogyan lehet beállítani a ChatGPT-t, hogy ne tanuljon meg bizalmas információkat
Ahogy korábban említettük, a ChatGPT minden opt-in tartalmat megtanul, ezért 2023. április 25-től (Reiwa 5) egy olyan funkció áll rendelkezésre, amely lehetővé teszi az előzetes opt-out beállítását.
Közvetlen előzetes intézkedésként, ha meg akarja akadályozni, hogy a ChatGPT által beírt adatokat a rendszer tanulására és fejlesztésére használják, szükséges egy “opt-out” kérelmet benyújtani. A ChatGPT-hez tartozik egy “opt-out” Google űrlap, ezért mindenképpen érdemes ezt az eljárást elvégezni. (E-mail címet, szervezeti azonosítót és szervezet nevét kell megadni és elküldeni.)
Az említett esetben azonban még mindig érvényes, hogy a beírt adatokat egy meghatározott időszakon (alapelv szerint 30 napig) keresztül az OpenAI felügyeli, és a szerveren tárolják.
ChatGPT felhasználási feltételei
3. Tartalom
(c) A szolgáltatások fejlesztéséhez használt tartalom
Nem használjuk fel az Ön által az API-nkhoz biztosított vagy onnan kapott tartalmat („API tartalom”) a szolgáltatásaink fejlesztésére vagy javítására.
Az API-nkhoz nem tartozó egyéb szolgáltatásokból származó tartalmat („nem API tartalom”) felhasználhatjuk a szolgáltatásaink fejlesztéséhez és javításához.
Ha nem szeretné, hogy a nem API tartalmat felhasználják a szolgáltatások javítására, akkor ezen az űrlapon keresztül kérheti az opt-outot. Kérjük, vegye figyelembe, hogy bizonyos esetekben ez korlátozhatja a szolgáltatásaink képességét arra, hogy jobban megfeleljen az Ön specifikus használati esetének.
Ha nem kívánja, hogy a nem API tartalmat felhasználják a szolgáltatások fejlesztésére, akkor ezen az űrlapon keresztül kérheti az opt-outot.
Kérjük, vegye figyelembe, hogy ez esetleg korlátozhatja a szolgáltatásaink képességét arra, hogy megfelelően kezeljék az Ön specifikus használati esetét.
Idézet: OpenAI hivatalos weboldala | ChatGPT felhasználási feltételei https://openai.com/policies/terms-of-use
Összefoglalás: A ChatGPT üzleti felhasználásánál elengedhetetlen a bizalmas információk kezelésére vonatkozó intézkedések megtétele
A fentiekben kifejtettük a ChatGPT üzleti felhasználásának bizalmas információk szivárgásával kapcsolatos kockázatait és azok kezelésére vonatkozó intézkedéseket, konkrét példákon keresztül.
A ChatGPT-hez hasonlóan gyorsan fejlődő AI üzleti alkalmazások esetében nélkülözhetetlenek a szakértőkkel közösen kidolgozott intézkedések, amelyek közé tartozik a vállalaton belüli használatra vonatkozó irányelvek megalkotása, a üzleti modellek jogszerűségének felülvizsgálata, szerződések és felhasználási feltételek készítése, a szellemi tulajdonjogok védelme, valamint a magánélet védelmének biztosítása.
Kapcsolódó cikk: Mi a Web3 jog? Magyarázat az e területen belépő vállalatok számára fontos szempontokra is[ja]
Intézkedéseink bemutatása a Monolit Ügyvédi Irodánál
A Monolit Ügyvédi Iroda az IT területén, különösen az internet és a jogi szakterületen gazdag tapasztalattal rendelkezik. Az AI üzletág számos jogi kockázattal jár, és elengedhetetlen az AI jogi kérdéseiben jártas ügyvédek támogatása.
Irodánk AI-ban jártas ügyvédek és mérnökök, valamint egyéb szakemberek csapatával nyújt magas szintű jogi támogatást az AI üzletágban, beleértve a ChatGPT-t is, szerződéskészítés, üzleti modellek jogi megfelelőségének vizsgálata, szellemi tulajdonjogok védelme, adatvédelmi megoldások terén. A részleteket az alábbi cikkben ismertetjük.
A Monolit Ügyvédi Iroda szakterületei: AI (többek között ChatGPT) jogi szolgáltatások[ja]
Category: IT
Tag: ITTerms of Use