Jaká jsou rizika používání ChatGPT v podnikání? Vysvětlení právních problémů
Od svého uvedení na trh si ChatGPT získal velkou pozornost po celém světě díky své užitečnosti. Zároveň se však stává známým, že je s ním spojeno mnoho různých rizik. Právní předpisy se stále vyvíjejí a mnoho manažerů cítí obavy ohledně rizik spojených s využíváním ChatGPT v podnikání a metod, jak tato rizika zmírnit.
Tento článek vysvětluje právní rizika a opatření spojená s využíváním ChatGPT v obchodní praxi.
Čtyři rizika při využívání ChatGPT v podnikání
I v podnikovém prostředí se rozšiřuje využití umělé inteligence generující přirozený jazyk, jako je ChatGPT. Míra implementace ChatGPT v japonských podnicích v roce 2022 (Reiwa 4) dosáhla 13,5 % a pokud zahrneme i podniky s plánem na zavedení, stoupá tento podíl na 24,0 %. (Zdroj: Japonské ministerstvo vnitra a komunikací | Bílá kniha o informačních a komunikačních technologiích pro rok 2023 (Reiwa 5) „Stav implementace systémů a služeb IoT a AI v podnicích[ja]“)
Je pravda, že AI technologie, včetně ChatGPT, mohou být efektivní pro zvýšení efektivity podnikových procesů a mohou přinést více obchodních příležitostí. Na druhou stranu však přinášejí i mnoho právních rizik. Proto je nutné tato rizika plně pochopit a na jejich základě rozhodnout o využití v podnikání.
Experti upozorňují na potenciální rizika AI, jako jsou problémy s autorskými právy, šíření dezinformací, úniky důvěrných informací, otázky soukromí nebo zneužití pro kybernetické útoky.
V této kapitole vysvětlíme čtyři rizika spojená s využíváním ChatGPT v podnikání.
Riziko úniku informací způsobené učícími funkcemi
ChatGPT je sice užitečný, ale jako AI chatbot generovaný učením se z různých dat na internetu, pokud nepodnikneme žádná opatření, existuje riziko, že informace zadané do systému budou použity pro učení a mohou uniknout.
Podle politiky využívání dat společnosti OpenAI, pokud uživatelé nepožádají o “opt-out” nebo nepoužívají ChatGPT přes “API”, mohou být data, která uživatelé zadají do ChatGPT, shromažďována a využívána (pro učení) společností OpenAI.
Je nezbytné být opatrný a nezadávat osobní nebo důvěrné informace bez přijetí příslušných opatření. I když uživatel omylem zadá osobní informace do ChatGPT, zobrazí se varovná zpráva a ChatGPT tyto informace neukládá ani nesleduje a nemůže je v chatu zobrazit.
Na druhou stranu, v minulosti došlo k incidentu, kdy kvůli chybě v systému společnosti OpenAI, která ChatGPT provozuje, došlo k úniku osobních informací uživatelů.
Související článek: Jaké jsou rizika úniku informací u ChatGPT? Představujeme 4 kroky, jak se chránit[ja]
Riziko nedostatečné věrohodnosti informací
Od května 2023 byla implementována funkce webového prohlížeče ChatGPT, což umožnilo ChatGPT shromažďovat nejnovější informace a odpovídat na základě získaných výsledků.
Avšak ChatGPT při odpovídání vytváří dojem pravdivých informací, ale jejich věrohodnost není zaručena. Odpovědi generované ChatGPT nejsou založeny na přesnosti informací obsažených ve vzdělávacích datech, ale jsou vytvářeny jako texty s vysokou pravděpodobností (nejpravděpodobnější). Proto je nezbytné provádět faktickou kontrolu odpovědí ChatGPT. Pokud by byly na základě odpovědí ChatGPT šířeny nepravdivé informace, mohlo by to poškodit důvěryhodnost samotné společnosti.
Dne 3. dubna 2023 Tokijská univerzita vyjádřila obavy o dopad této technologie na budoucí společnost a vydala následující prohlášení:
“Princip ChatGPT spočívá ve vytváření pravděpodobných textů prostřednictvím strojového učení a posilovaného učení založeného na velkém množství existujících textů a obsahu. Obsah tak může obsahovat nepravdy. Komunikace s ChatGPT může připomínat rozhovor s velmi výřečnou osobou, která se tváří, že ví vše (i když nejnovější verze GPT-4 je výrazně přesnější a jako konverzační partner je velmi kompetentní). Aby bylo možné ChatGPT efektivně využívat, je nutné mít odborné znalosti, kriticky hodnotit odpovědi a případně je upravovat. ChatGPT také nemůže analyzovat nebo popisovat nové poznatky, které nejsou obsaženy v existujících informacích. To znamená, že příchod ChatGPT neznamená, že lidé mohou zanedbávat studium nebo výzkum. Nicméně, pokud osoba s vzděláním a odbornými znalostmi bude schopna kriticky analyzovat a efektivně využívat odpovědi, může to výrazně zvýšit efektivitu rutinních prací,” upozorňuje.
Reference: Tokijská univerzita | ‘O generativních AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion atd.)[ja]‘
Právní rizika spojená s porušením autorských práv a soukromí
Určení porušení autorských práv v případě ChatGPT se liší v závislosti na fázi “vývoje a učení AI” a “generování a využívání”. Vzhledem k tomu, že v každé fázi dochází k odlišnému využívání děl, liší se i příslušné články zákona o autorských právech. Proto je nutné obě fáze posuzovat odděleně.
Reference: Japonská agentura pro kulturu | Seminář o autorských právech pro rok Reiwa 5 (2023)[ja]
V lednu 2019 (rok Heisei 31) byl zaveden novelizovaný zákon o autorských právech, který v článku 30-4 zahrnuje novou výjimku pro “vývoj a učení AI”. Analýza informací pro vývoj AI a jiné činnosti, které nejsou zaměřeny na požitek z myšlenek nebo emocí vyjádřených v dílech, mohou být zásadně prováděny bez svolení držitele autorských práv.
Na druhé straně, pokud výstupy generované ChatGPT vykazují podobnost nebo závislost (modifikaci) na autorských dílech, může dojít k porušení autorských práv. Před zveřejněním je proto důležité ověřit, kdo je držitelem práv k informacím, na které se ChatGPT odvolává, a zkontrolovat, zda neexistuje obsah podobný tomu, který ChatGPT vytvořil. Při citování děl je nutné uvést zdroj (omezení práv podle zákona) a při reprodukci získat svolení držitele autorských práv a řádně s dílem nakládat.
Podle podmínek používání společnosti OpenAI je obsah vytvořený ChatGPT možné komerčně využívat, ale pokud je obtížné rozhodnout, zda obsah vytvořený pomocí ChatGPT porušuje autorská práva, doporučuje se konzultace s odborníkem.
V případě, že vás držitel autorských práv upozorní na porušení autorských práv, můžete čelit občanskoprávní odpovědnosti (náhrada škody, odškodnění, zákaz používání, obnovení dobrého jména atd.) nebo trestněprávní odpovědnosti (trestné činy na žádost). V případě podniků může být uplatněna dvojí sankce, která se vztahuje jak na jednotlivce, tak na právnické osoby, což může vést k větším škodám.
Stejně tak je třeba být opatrný i v případě osobních údajů a soukromí. Jak bylo uvedeno výše, i když do ChatGPT omylem zadáte osobní údaje, ChatGPT tyto informace neukládá ani nesleduje a nemůže je v chatu zobrazit. Toto je však politika společnosti OpenAI a u jiných platforem nebo služeb se může lišit.
Riziko úniku osobních údajů je vysvětleno v následujícím článku, který si také přečtěte.
Související článek: Riziko úniku osobních údajů v podniku a náhrada škody[ja]
Riziko neúmyslného vytváření škodlivého obsahu
V závislosti na obsahu dat, která se ChatGPT naučil, a na obsahu zadávaných pokynů může dojít k vytvoření škodlivého obsahu. Pokud obsah vytvořený ChatGPT publikujete bez kontroly, může to poškodit pověst a hodnotu značky vaší společnosti a může to vést k právním problémům.
Ačkoliv je ChatGPT nastaven tak, aby neumožňoval vytváření a zpracování škodlivého obsahu, může být obtížné rozlišit škodlivý programový kód nebo podvodné služby, které mohou být vygenerovány. S ohledem na tyto rizika je nezbytné mít stálý systém kontroly vytvářeného obsahu.
Porozumění smluvním podmínkám a vyhnutí se rizikům při používání ChatGPT
Při využívání ChatGPT pro obchodní účely je nezbytné se vyhnout rizikům tím, že budete postupovat v souladu s podmínkami použití a zásadami ochrany soukromí společnosti OpenAI. Vzhledem k tomu, že smluvní podmínky jsou často aktualizovány, je důležité při obchodním využití pravidelně kontrolovat změny a ujistit se, že máte aktuální informace o nejnovějších podmínkách použití.
Související článek: Vysvětlení podmínek použití OpenAI, na co si dát pozor při komerčním využití?[ja]
Jak předejít rizikům při využívání ChatGPT v podnikání
Pro efektivní a správné využívání ChatGPT v podnikání a vyhnutí se s tím spojeným rizikům je pro firmy nezbytné zavést následující systém řízení.
Vytvoření interních pravidel
Dne 1. května 2023 (Reiwa 5) Japonská asociace pro hluboké učení (JDLA) shrnula etické, právní a sociální otázky spojené s ChatGPT (ELSI) a zveřejnila “Směrnice pro využívání generativní AI”. V různých oblastech průmyslu, akademické sféry a veřejné správy se také zvažuje vytvoření směrnic.
Při zavádění ChatGPT do podniků je důležité nejen zvyšovat informační bezpečnostní gramotnost jednotlivců a provádět interní školení, ale také je vhodné vytvořit vlastní směrnice pro využívání ChatGPT. Stanovením a širokým sdílením pravidel pro využívání ChatGPT ve vaší společnosti lze očekávat určité snížení rizik.
Reference: Japonská asociace pro hluboké učení (JDLA) | “Směrnice pro využívání generativní AI[ja]“
Zřízení dozorčí osoby pro využívání ChatGPT
Účinným způsobem, jak předejít rizikům, je také zřízení dozorčí osoby v rámci firmy, která bude neustále monitorovat provozování směrnic a spravovat rizika.
Monitorování chování ChatGPT, opravování výstupů a správa dat je proces podobný systémovému auditu. Systémový audit objektivně hodnotí efektivitu, bezpečnost a spolehlivost informačních systémů a je prováděn s cílem zefektivnit operace a podpořit transformaci organizace. Zřízením dozorčí osoby pro audit můžete také posílit transparentnost a zodpovědnost v provozu.
Shrnutí: Při využívání ChatGPT v podnikání je nezbytné přijmout opatření k minimalizaci rizik
V tomto článku jsme podrobně rozebrali rizika a opatření spojená s využíváním ChatGPT v podnikání.
Při rychlém vývoji AI nástrojů, jako je ChatGPT, je nezbytné přijmout řadu opatření, od vytvoření interních směrnic pro používání, přezkumu zákonnosti obchodních modelů, sestavení smluv a využití podmínek, až po ochranu duševního vlastnictví a zajištění soukromí. K tomu je nezbytná spolupráce s odborníky, kteří mají hluboké znalosti právních rizik a technologie AI.
Představení opatření naší kanceláře
Právní kancelář Monolith má bohaté zkušenosti v oblasti IT, zejména internetu a práva. V oblasti AI podnikání existuje mnoho právních rizik a podpora právníků, kteří se specializují na právní problémy spojené s AI, je nezbytná.
Naše kancelář poskytuje různé právní podpory pro AI podnikání, včetně ChatGPT, s týmem právníků a inženýrů, kteří se specializují na AI. Podrobnosti naleznete v následujícím článku.
Právní obory, které zastupuje Právní kancelář Monolith: Právní služby AI (včetně ChatGPT)[ja]
Category: IT
Tag: ITTerms of Use