Milyen kockázatokat rejt a ChatGPT üzleti használata? Magyarázat a jogi problémákra is
A ChatGPT a megjelenése óta (Release since) világszerte nagy figyelmet kapott hasznossága miatt. Ugyanakkor egyre ismertebbé válnak a különböző kockázatok is, amelyekkel együtt jár. Még mindig folyamatban van a jogi szabályozás kidolgozása, és sok vállalkozó érezheti aggodalmát a ChatGPT üzleti célú használatának kockázataival és ezek kockázatcsökkentési módszereivel kapcsolatban.
Ebben a cikkben a ChatGPT üzleti használatának jogi kockázatait és azok kezelési lehetőségeit fogjuk ismertetni.
A ChatGPT üzleti felhasználásának 4 kockázata
A vállalatok körében egyre elterjedtebb a természetes nyelvet generáló AI, a ChatGPT használata, és a 2022-es (Reiwa 4) évben a vállalatok 13,5%-a már bevezette, további 24,0%-uk pedig tervezi a bevezetését. (Forrás: Japán Belügyminisztérium | Reiwa 5 (2023) Információs és Kommunikációs Fehér Könyv, “A vállalatok IoT és AI rendszerek, szolgáltatások bevezetésének helyzete” kommunikációs felhasználási trendek felmérése[ja])
Valóban, a ChatGPT és más AI technológiák hatékonyan javíthatják a vállalati munkafolyamatokat, és számos új üzleti lehetőséget kínálhatnak. Ugyanakkor számos jogi kockázatot is magukban hordoznak. Ezért fontos, hogy a kockázatokat teljes mértékben megértve döntsünk az üzleti felhasználás mellett.
Például a szakértők figyelmeztetnek a szerzői jogi problémákra, a téves információk terjedésére, a bizalmas információk szivárgására, a magánéleti jogok kérdéseire és a kibertámadásokhoz való visszaélésre, mint az AI potenciális kockázataira.
Ebben a fejezetben a ChatGPT üzleti felhasználásának négy kockázatát ismertetjük.
A tanulási funkció által okozott információszivárgás kockázata
A ChatGPT hasznos eszköz, de mivel egy olyan AI chatbot, amely az interneten elérhető különféle adatokból tanul és generálódik, ha nem teszünk megfelelő óvintézkedéseket, fennáll annak a kockázata, hogy a bevitt információk a tanulási folyamat részeként kiszivárognak.
Az OpenAI adatfelhasználási irányelvei szerint, ha a felhasználó nem kéri az „API” használatát vagy nem jelentkezik ki („opt-out”), akkor a ChatGPT-be bevitt adatokat az OpenAI gyűjtheti és felhasználhatja (tanulás céljából).
Óvintézkedések nélkül különös figyelmet kell fordítani arra, hogy ne adjunk meg személyes vagy bizalmas információkat, mint például titkos adatokat. Ha valaki véletlenül mégis személyes információt adna meg a ChatGPT-nek, egy figyelmeztető üzenet jelenik meg, és a ChatGPT úgy van kialakítva, hogy ne tárolja vagy kövesse nyomon a személyes adatokat, és ne jelenítse meg azokat a csevegés során.
Másrészről, a múltban előfordult, hogy a ChatGPT-t üzemeltető OpenAI cég rendszerében lévő hiba miatt felhasználók regisztrált személyes adatai szivárogtak ki.
Kapcsolódó cikk: Milyen információszivárgási kockázatokat rejt a ChatGPT? Bemutatjuk a megteendő négy lépést[ja]
Az információk hitelességének hiányából fakadó kockázatok
A ChatGPT webböngésző funkciójának 2023 májusában történt bevezetése óta a rendszer képes a legfrissebb információk gyűjtésére és azok alapján válaszokat adni.
Az azonban, hogy a ChatGPT válaszai igazságként jelennek meg, nem jelenti azt, hogy azok hitelessége garantált. A ChatGPT által generált válaszok nem a tanulmányi adatok pontosságán alapulnak, hanem csupán a legvalószínűbbnek ítélt szövegeket állítják elő. Ezért a ChatGPT válaszainak ellenőrzése nélkülözhetetlen. Ha véletlenül hamis információkat terjesztünk a ChatGPT válaszai alapján, az a vállalat hírnevének súlyos károsodásához vezethet.
2023. április 3-án (Reiwa 5) a Tokiói Egyetem aggodalmát fejezte ki a ChatGPT technológiai kihívásai miatt, és a következő nyilatkozatot adta ki a társadalomra gyakorolt lehetséges hatásokkal kapcsolatban:
„A ChatGPT alapelve az, hogy nagy mennyiségű meglévő szöveg és tartalom gépi tanuláson és erősítő tanuláson keresztül történő feldolgozásával valószínűsíthető szövegeket hoz létre. Ennek következtében a megfogalmazott tartalom hamis állításokat is tartalmazhat. Mintha egy nagyon beszédes, de felületes ismeretekkel rendelkező személlyel beszélgetnénk. (Bár az újabb GPT-4 verzió már jelentősen növelte a pontosságot, és tanácsadóként is kiválóan használható.) A ChatGPT hatékony használatához szakértői tudás szükséges, a válaszokat kritikusan kell ellenőrizni és szükség esetén módosítani. Új ismeretek elemzésére vagy leírására, amelyek nem szerepelnek a meglévő információk között, nem képes. Vagyis a ChatGPT megjelenése nem jelenti azt, hogy az embereknek nem kell tanulniuk vagy kutatniuk. Azonban, ha egy művelt és szakértői tudással rendelkező személy kritikusan elemezi és ügyesen használja a válaszokat, akkor a rutinszerű munkafolyamatok hatékonyságát jelentősen növelheti.” – mutatott rá.
Forrás: Tokiói Egyetem | „Generatív AI-ról (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion stb.)[ja]”
Szerzői jogi és magánéleti jogok megsértésének jogi kockázatai
A ChatGPT esetében a szerzői jogi megsértés megítélése az „AI fejlesztési és tanulási szakasz” és a „generálási és felhasználási szakasz” között különbözik. Mivel a két szakaszban eltérő módon használják fel a szerzői műveket, ezért a szerzői jogi törvények cikkei is különböznek. Ezért fontos, hogy a két szakaszt külön-külön vizsgáljuk meg.
Referencia: Japán Kulturális Ügynökség | Reiwa 5 (2023) évi szerzői jogi szeminárium „AI és a szerzői jogok”[ja]
A 2019 januárjában hatályba lépett módosított szerzői jogi törvény a jogkorlátozási rendelkezések közé (az engedély nélküli kivételek) az „AI fejlesztési és tanulási szakasz” új szabályozását vezette be a 30. cikk 4. pontjában. Az AI fejlesztése céljából végzett információelemzés és egyéb, a szerzői művekben kifejezett gondolatok vagy érzelmek élvezetére nem irányuló felhasználási tevékenységek alapvetően a szerzői jog tulajdonosának engedélye nélkül végezhetők.
Másrészről, ha a ChatGPT által előállított termék hasonlóságot vagy függőséget (módosítást) mutat a szerzői művekkel, akkor az szerzői jogi megsértésnek minősül. Ezért a közzététel előtt fontos, hogy ellenőrizzük a ChatGPT által hivatkozott információk jogtulajdonosait, és hogy nincs-e a ChatGPT által létrehozott anyaghoz hasonló tartalom. Amennyiben szerzői műveket idézünk, meg kell jelölni a forrást (jogkorlátozási rendelkezések), másolás esetén pedig a szerzői jog tulajdonosának engedélyét kell kérni és megfelelő módon kell eljárni.
Az OpenAI felhasználási feltételei szerint a ChatGPT által létrehozott tartalmak kereskedelmi célra is felhasználhatók, de ha nehéz eldönteni, hogy a ChatGPT segítségével létrehozott tartalom szerzői jogi megsértést jelent-e, ajánlott szakértőhöz fordulni.
Ha a szerzői jog tulajdonosa szerzői jogi megsértésre hívja fel a figyelmet, akkor polgári felelősség (kártérítés, sérelemdíj, használati tilalom, hírnév helyreállítása és egyéb jogi intézkedések) és büntetőjogi felelősség (feljelentési bűncselekmény) is felmerülhet. Vállalatok esetében a kettős büntetési szabályok érvényesülhetnek, amelyek az egyéni és a jogi személyekre egyaránt büntetést róhatnak ki, ami nagyobb károkat okozhat.
A személyes adatok és a magánélet védelmével kapcsolatban is óvatosnak kell lenni, és nem szabad személyes adatokat bevinni a ChatGPT-be. Ahogy korábban említettük, még ha véletlenül személyes adatokat is adunk meg a ChatGPT-nek, a rendszer nem tárolja vagy követi nyomon ezeket az adatokat, és nem jeleníti meg őket a csevegésben. Azonban ez az OpenAI politikája, és más platformokon vagy szolgáltatásokon eltérő lehet.
A személyes adatok szivárgásának kockázatáról az alábbi cikkben olvashat bővebben, kérjük, olvassa el azt is.
Kapcsolódó cikk: Vállalatok személyes adatok szivárgásának kockázata és a kártérítés[ja]
A véletlenül káros tartalmak létrehozásának kockázata
A ChatGPT által tanult adatok tartalmától és a beviteli utasításoktól függően előfordulhat, hogy káros tartalmat hoz létre. Ha a ChatGPT által létrehozott tartalmat ellenőrzés nélkül teszik közzé, az károsíthatja a vállalat hírnevét és márkájának értékét, és jogi problémákhoz is vezethet.
Bár a káros tartalmakat úgy állították be, hogy azok ne legyenek be- és kimenetként használhatók a ChatGPT-ben, bizonyos káros programkódok és csalárd szolgáltatások azonosítása nehéz lehet, és előfordulhat, hogy mégis előállítja azokat. Ezen kockázatok tudatában kiemelten fontos, hogy mindig legyen egy olyan rendszer, amely ellenőrzi a létrehozott tartalmakat.
A felhasználási feltételek megértése és a ChatGPT használatából eredő kockázatok elkerülése
A ChatGPT üzleti célú használata során elengedhetetlen, hogy az OpenAI felhasználási feltételeit és adatvédelmi irányelveit betartva kerüljük el a kockázatokat. Mivel a felhasználási feltételek gyakran változnak, üzleti felhasználóként rendszeresen ellenőrizni kell az új változásokat, hogy mindig a legfrissebb szabályozások szerint járjunk el.
Kapcsolódó cikk: Az OpenAI felhasználási feltételeinek értelmezése, a kereskedelmi használat során figyelembe veendő szempontok[ja]
A ChatGPT üzleti felhasználásának kockázatainak elkerüléséhez szükséges lépések
A ChatGPT-vel járó kockázatok elkerülése és a technológia üzleti célú megfelelő használata érdekében a vállalatoknak a következő irányítási struktúrát kell kialakítaniuk.
Céges szabályzat készítése
2023. május 1-jén (Reiwa 5) a Japán Deep Learning Association (JDLA) összefoglalta a ChatGPT etikai, jogi és társadalmi kérdéseit (ELSI), és közzétette a “Generatív AI használati útmutatóját”. Az ipar, az akadémia és a kormányzati szektorban is folyamatban van az útmutató kidolgozásának megvitatása.
A ChatGPT vállalati bevezetése során nemcsak a személyes információbiztonsági ismeretek fejlesztése és a belső oktatás fontos, hanem ajánlott a saját ChatGPT használati útmutató kidolgozása is. A saját ChatGPT használati szabályokat rögzítő útmutató kidolgozásával és annak széles körű ismertetésével bizonyos kockázatok elkerülésére számíthatunk.
Forrás: Japán Deep Learning Association (JDLA) | “Generatív AI használati útmutató[ja]“
Felügyelő kijelölése a ChatGPT használata során
A ChatGPT használatának felügyelete érdekében hatékony lehet egy belső felügyelő kijelölése, aki folyamatosan monitorozza az útmutató alkalmazását és kezeli a kockázatokat.
A ChatGPT viselkedésének megfigyelése, a generált eredmények módosítása és az adatok kezelése olyan felügyeleti tevékenységek, amelyek általában a rendszerfelügyelethez hasonlíthatók. A rendszerfelügyelet célja az információs rendszerek hatékonyságának, biztonságának és megbízhatóságának objektív értékelése, amely a munkafolyamatok hatékonyságának növelése és a szervezeti átalakulás támogatása céljából történik. A felügyelő kijelölésével növelhető az üzemeltetés átláthatósága és az elszámoltathatóság is.
Összefoglalás: A ChatGPT üzleti felhasználásához elengedhetetlen a kockázatkezelési intézkedések megtétele
Ebben a részben részletesen tárgyaltuk a ChatGPT üzleti felhasználásával kapcsolatos kockázatokat és azok kezelésére szolgáló intézkedéseket.
A ChatGPT-hez hasonló gyorsan fejlődő AI-alapú üzleti megoldások esetében számos jogi kockázatot kell kezelni, kezdve a vállalaton belüli használatra vonatkozó irányelvek kidolgozásától, a üzleti modell jogi megfelelőségének vizsgálatán, a szerződések és felhasználási feltételek megalkotásán át, az szellemi tulajdonjogok védelméig és a adatvédelmi követelményekig. Mindezekhez nélkülözhetetlen az AI technológiában jártas szakértőkkel való együttműködés.
Intézkedéseink bemutatása a Monolit Ügyvédi Irodánál
A Monolit Ügyvédi Iroda az IT területén, különösen az internet és a jogi aspektusok terén rendelkezik gazdag tapasztalattal. Az AI üzletág számos jogi kockázattal jár, és elengedhetetlen az AI jogi kérdéseiben jártas ügyvédek támogatása.
Irodánk AI-ban jártas ügyvédek és mérnökök, valamint egyéb szakemberek csapatával nyújt jogi támogatást az AI üzletágban, beleértve a ChatGPT-t is. A részleteket az alábbi cikkben ismertetjük.
A Monolit Ügyvédi Iroda szakterületei: AI (többek között ChatGPT) jogi szolgáltatások[ja]
Category: IT
Tag: ITTerms of Use