MONOLITH LAW OFFICE+81-3-6262-3248Všední dny 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Aktuální stav zákonů regulující umělou inteligenci: Srovnání Japonska a EU a klíčové body pro opatření

IT

Aktuální stav zákonů regulující umělou inteligenci: Srovnání Japonska a EU a klíčové body pro opatření

Generativní AI, jako je ChatGPT, se stala velkým fenoménem. Nyní, když je generativní AI začleněna i do obchodního prostředí, je označována za hybatele „čtvrté AI horečky“. V souladu s tím se na celém světě také posiluje právní rámec pro regulaci AI.

V tomto článku se zaměříme na právní předpisy související s AI a vysvětlíme správné zacházení s důvěrnými informacemi, jako jsou práva duševního vlastnictví a osobní údaje.

Definice a historie AI (umělé inteligence)

AI (artificial intelligence), neboli umělá inteligence, nemá v právním smyslu přesnou definici a existuje mnoho různých definic. Níže jsou uvedeny některé příklady.

ZdrojDefinice / Vysvětlení
「Kóji-en」Computerový systém vybavený intelektuálními funkcemi, jako je odvozování a rozhodování.
「Britannica Encyklopedie」Věda a technologie > Počítače & AI. Schopnost digitálních počítačů nebo počítačových robotů vykonávat úkoly spojené s inteligentní existencí.
Článek Japonské společnosti pro umělou inteligenci „AI jako kulturní znalost“Odpověď na otázku „Co je AI?“ není jednoduchá. I mezi odborníky na AI existují velké diskuse a toto téma by samo o sobě mohlo vytvořit celou knihu. Pokud bychom měli najít společný jmenovatel a shrnout to jedním slovem, mohli bychom říci, že je to technologie, která umožňuje strojům provádět stejné intelektuální úkony jako člověk.
Vědecký článek „Hluboké učení a umělá inteligence“AI je obor, který se snaží konstruktivisticky objasnit mechanismy lidské inteligence.
Vědecký článek „Hledání ideální společnosti s umělou inteligencí“AI a další informační technologie jsou především nástroje.

AI je označována za různé technologie, softwarové skupiny, počítačové systémy a algoritmy, které replikují lidské intelektuální schopnosti na počítači.

Jako hlavní specializované AI jsou uváděny následující:

  • Zpracování přirozeného jazyka (strojový překlad, syntaktická analýza, morfologická analýza, RNN atd.)
  • Expertní systémy napodobující úsudky a rozhodování odborníků
  • Rozpoznávání obrazu a hlasu, které detekují a extrahují specifické vzory z dat

Výzkum a vývoj v oblasti AI (umělé inteligence) pokračuje od 50. let 20. století, což je doba počátků počítačů. První boom AI trval do 70. let a zaměřoval se na výzkum „prohledávání a odvozování“, druhý boom AI v 80. letech přinesl výzkum „reprezentace znalostí“, který vedl k vzniku expertních systémů, a zaznamenal dva významné paradigmaty boomu.

Od 2000. let se objevila velká data a od roku 2012 byla s příchodem Alexnetu celosvětově uznána užitečnost hlubokého učení (deep learning) v zpracování obrazu, což vedlo k rychlému rozvoji výzkumu a příchodu třetího boomu AI.

Mezi lety 2016 a 2017 byly představeny AI, které využívají hluboké učení (deep learning) a posilované učení (Q-learning, metoda gradientu politiky).

Hlavní revoluce třetího boomu AI je patrná zejména v oblasti zpracování přirozeného jazyka a zpracování obrazu pomocí senzorů, ale má také významný dopad na oblasti technologického vývoje, sociologie, etiky a ekonomie.

30. listopadu 2022 získal generativní AI pro zpracování přirozeného jazyka ChatGPT od společnosti OpenAI pozornost jako univerzální nástroj, což vedlo k rozvoji generativního AI byznysu. Někteří toto sociální fenomén nazývají čtvrtým boomem AI.

Obchodní scény, ve kterých je třeba zkontrolovat zákony týkající se AI 

Obchodní scény, kde je třeba zkontrolovat právní regulace 

Generativní AI, která je jedním z typů AI, je sice užitečným nástrojem, ale zároveň může šířit dezinformace, podporovat kriminalitu a v některých případech dokonce ohrožovat demokracii.

Rizika spojená s AI se nyní stala nevyhnutelnou výzvou. Proto vysvětlíme obchodní scény, ve kterých je třeba zkontrolovat právní regulace, z pohledu uživatelů i poskytovatelů.

Využití AI pro generování textu

Od spuštění ChatGPT v listopadu (2022) se AI pro generování textu stala celosvětově oslavovaným univerzálním nástrojem, který může zvládnout složité požadavky a nabízí efektivitu práce a vysokou návratnost investic.

Na druhou stranu se stala známá i rizika spojená s využíváním AI pro generování textu. Je důležité si být vědom těchto potenciálních rizik a vědět, které zákony je nutné dodržovat, aby se jim předešlo.

ChatGPT, který je představitelem AI pro generování textu, může, pokud nebudou přijata žádná opatření, vést k úniku informací (promptů) zadaných uživatelem. ChatGPT má funkci shromažďovat, ukládat a využívat prompty, což znamená riziko úniku osobních údajů, firemních tajemství, informací získaných pod dohodou o nezveřejnění (NDA) a dalších důvěrných informací.

Kromě toho existují specifická rizika spojená s ChatGPT, jako je generování a šíření dezinformací (halucinace), porušování autorských práv a další. Proto je nezbytné provádět faktickou kontrolu výstupů.

Využití AI pro generování obrázků

Při využívání AI pro generování obrázků v obchodní sféře je nutné mít na paměti riziko porušení autorských práv.

Podle OpenAI obvykle vlastní autorská práva k obrázkům a textům generovaným pomocí ChatGPT a podobných nástrojů uživatel, který je vytvořil. Uživatelé mohou ChatGPT a podobné nástroje využívat pro jakýkoli účel, včetně komerčního využití.

Avšak při využívání je třeba dát pozor na následující:

Výuková data ChatGPT obsahují obrovské množství obsahu zveřejněného na internetu, a většina z tohoto obsahu je chráněna autorským právem (texty, obrázky, hudba, videa atd.). Proto může generovaný obsah potenciálně porušovat autorská práva jiných osob.

Vývoj AI a poskytování služeb generativní AI

AI obchod je spojen s různými zákony a vzhledem k tomu, že se právní rámec na celém světě teprve vyvíjí, je vyžadováno dodržování stávajících zákonů a zároveň flexibilní přístup k novým zákonům.

V další kapitole vysvětlíme zákony týkající se AI v Japonsku a mezinárodní EU „AI Regulation Act“ (Zákon o regulaci AI), který byl přijat v prosinci (2023).

Zákony Japonska týkající se AI

V současné době v Japonsku neexistuje pro AI žádná regulace s vynucovací mocí založená na zákonech, a místo toho se země řídí politikou samoregulace. Zde vysvětlíme stávající zákony, na které byste měli dát pozor při využívání AI.

Reference: Ministerstvo hospodářství, obchodu a průmyslu|„Směrnice pro správu principů AI ver. 1.1“[ja]

Zákon o autorských právech

V lednu 2019 (rok Heisei 31) byl zaveden „Novelizovaný zákon o autorských právech“, který mezi omezení práv přidal „analýzu informací“ (článek 30, odstavec 4, bod 1, číslo 2) jako novou výjimku, kdy není potřeba svolení. Aktivity, jako je analýza informací během vývoje AI nebo fáze učení, které nejsou zaměřeny na užívání děl k pochopení vyjádřených myšlenek nebo emocí, lze provádět bez svolení držitele autorských práv.

Tato novela jasně definuje, že strojové učení včetně hlubokého učení AI spadá do kategorie „analýzy informací“.

Případ použití analýzy informací (extrakce informací týkajících se jazyka, zvuku, obrazu a dalších prvků z mnoha děl nebo jiných velkých objemů informací a provádění srovnání, klasifikace nebo jiné analýzy těchto informací)

Zákon o autorských právech, článek 30, odstavec 4, bod 1, číslo 2

Na druhou stranu je třeba být opatrný, pokud dílo vytvořené s využitím AI vykazuje podobnost nebo závislost na dílech jiných autorů, může to být považováno za porušení autorských práv.

Kromě toho, pokud zadáte dílo do ChatGPT jako vstupní podnět, může to vést k porušení práv, jako je právo na reprodukci. Použití generativní AI k úpravě díla jiného autora může rovněž vést k porušení práv, jako je právo na adaptaci.

Podle podmínek používání OpenAI patří práva k obsahu vytvořenému pomocí ChatGPT uživateli a je možné jej komerčně využívat, ale v případě, že je obtížné rozhodnout, zda obsah porušuje autorská práva, doporučuje se konzultace se specialistou.

Pokud by vás držitel autorských práv obvinil z porušení autorských práv, můžete čelit civilní odpovědnosti (zákaz používání, náhrada škody, odškodnění, obnovení dobrého jména atd.) nebo trestní odpovědnosti.

Zákon o prevenci nekalé soutěže

1. července 2019 (rok Heisei 31) vstoupil v platnost novelizovaný Zákon o prevenci nekalé soutěže. Dříve bylo obtížné chránit data, která nebyla chráněna patentovým zákonem nebo zákonem o autorských právech, nebo data, která nespadala do kategorie „obchodních tajemství“ podle Zákona o prevenci nekalé soutěže.

Tato novela proto stanovila civilní opatření (nárok na zákaz, odhadovanou výši náhrady škody atd.) proti nekalým praktikám, jako je neoprávněné získávání nebo používání dat s určitou hodnotou (omezeně poskytovaná data).

Zákony EU týkající se využívání AI

Právní regulace využívání AI v EU

Právní systém EU se skládá ze tří částí: primárního práva (smlouvy), sekundárního práva (legislativa EU) a judikatury. Sekundární právo, které je založeno na primárním právu (smlouvách), představuje právní předpisy, které přímo či nepřímo zavazují členské státy EU a jsou označovány jako odvozené právo EU. Sekundární právo se dělí na pět hlavních typů, avšak „Regulace AI“ EU spadá pod kategorii nařízení (Regulation), což znamená, že se jedná o jednotná pravidla přímo zavazující všechny členské státy EU.

Na druhou stranu, směrnice (Directive) ukládají členským státům EU nepřímou právní povinnost, kdy musí tyto státy implementovat obsah směrnice do svého vnitrostátního práva prostřednictvím nové legislativy nebo jejími změnami. Obvyklá lhůta pro implementaci je do tří let od publikace v Úředním věstníku EU.

Související článek: Must-read pro firmy expandující do Evropy: Klíčové body právního systému a zákonů EU[ja]

V této kapitole se zaměříme na nejnovější trendy týkající se právních regulací využívání AI v EU, zejména na „směrnice“ a „nařízení“.

Návrh směrnice o odpovědnosti za AI

Dne 28. září 2022 Evropská komise zveřejnila návrh směrnice o odpovědnosti za AI společně s návrhem na změnu směrnice o odpovědnosti za výrobky. Tento návrh stanoví pravidla pro právní odpovědnost v oblasti AI podnikání v EU (Evropské unii) v souladu s AI Regulation Act a stává se důležitým právním rámcem. Od června 2023 se stane předmětem směrnice EU o kolektivních žalobách, což znamená, že i příslušné japonské společnosti by měly být obeznámeny s jejím obsahem.

Jedná se o významnou změnu právních pravidel pro civilní odpovědnost za software, včetně systémů AI v EU, která je přizpůsobena digitálnímu věku, cirkulární ekonomice a globálním hodnotovým řetězcům.

Související článek: Současný stav a perspektivy regulace AI v EU? Vysvětlení dopadu na japonské společnosti[ja]

Cílem návrhu směrnice o odpovědnosti za AI je stanovit pravidla pro civilní odpovědnost za škody způsobené systémy AI na základě mimokontraktních důvodů a zlepšit tak fungování vnitřního trhu EU.

To znamená, že se nevztahuje na odpovědnost z kontraktu (odpovědnost za nesplnění závazků a odpovědnost za nesoulad smlouvy), ale na škody způsobené nedostatečnou bezpečností, které nejsou omezeny pouze na odpovědnost za výrobky, ale zahrnují i odpovědnost za nedbalost (například odpovědnost za protiprávní jednání).

Například škody způsobené diskriminačními praktikami systémů pro výběr zaměstnanců pomocí AI by také spadaly do této kategorie.

Tento návrh směrnice zavádí opatření pro snížení důkazního břemene pro vývojáře “vysokorizikových AI systémů” definovaných v AI Regulation Act za účelem řešení problému “black box” AI, včetně “předpokladu příčinné souvislosti” a “systému pro zveřejnění důkazů”.

V případě nesplnění příkazu k zveřejnění důkazů návrh směrnice o odpovědnosti za AI stanoví povinnost dodržovat povinnost péče a předpokládat příčinnou souvislost, zatímco návrh změny směrnice o odpovědnosti za výrobky předpokládá vadnost a příčinnou souvislost, a ukládá tak silnější sankce než japonský občanský soudní řád pro dodržování příkazů.

Tento návrh směrnice je v první fázi omezen na opatření pro snížení důkazního břemene spojeného s “black box” problematikou AI, a zavádí nové pojmy jako jsou oprávnění k podání žaloby, zveřejnění důkazů, ochrana důkazů a předpoklad příčinné souvislosti, přičemž jsou stanoveny jejich požadavky.

Druhá fáze stanoví přezkum a hodnocení. Evropská komise zřídí monitorovací program, který bude přezkoumávat informace o incidentech, hodnotit vhodnost ukládání odpovědnosti bez zavinění (přísné odpovědnosti) vývojářům vysokorizikových AI systémů a potřebu zavést povinné pojištění a další opatření, a bude o tomto hodnocení zpravovat Evropské radě a Evropskému parlamentu.

Návrh změny směrnice o odpovědnosti za výrobky

“Směrnice o odpovědnosti za výrobky” je právní předpis EU z roku 1985 (Showa 60), který chrání spotřebitele a stanoví odpovědnost výrobců v případě, že spotřebitel utrpí škodu způsobenou vadným výrobkem.

V návrhu změny se jako nový předmět odpovědnosti za výrobky přidává “software”, což znamená, že pokud má AI systém, který je druhem softwaru, “vadu”, bude na provozovatele AI systému aplikována odpovědnost bez zavinění. Dále se jako kritéria pro posouzení “vady” nově zavádí schopnost kontinuálního učení po instalaci a aktualizace softwaru.

V současném japonském zákoně o odpovědnosti za výrobky se software obecně nepovažuje za movitou věc, a proto není považován za “výrobek” podle tohoto zákona. Nicméně, návrh změny přistupuje k modifikaci konceptu “výrobku”. Tento návrh změny také zavádí “opatření pro snížení důkazního břemene”, což může mít významný dopad na software, včetně AI systémů a produktů pokročilých technologií.

Zákon o regulaci AI

“Zákon o regulaci AI (AI Act)” je komplexní soubor jednotných pravidel EU (sekundární právo) pro obchodování s AI, který se skládá z 85 článků a je prvním mezinárodním zákonem regulujícím AI na světě. Byl přijat dne 9. prosince 2023 po dočasném dohodnutí Evropské komise, Evropského parlamentu a Rady Evropské unie. Očekává se, že vstoupí v platnost a bude plně uplatňován v roce 2024.

Tento zákon je klíčovou součástí digitální strategie EU známé jako “Evropa připravená pro digitální věk”, která se snaží řešit nové výzvy a rizika vyvíjejícího se digitálního věku. Zároveň je součástí širokého balíčku opatření pro AI, který si klade za cíl zajistit bezpečnost AI a základní práva a posílit přístup k AI, investice a inovace v celé EU.

Evropský “Zákon o regulaci AI” se přímo vztahuje na členské státy EU a má přeshraniční uplatnění i pro podniky působící v rámci EU, čímž se vztahuje i na podniky nacházející se mimo EU.

V případě porušení mohou být uloženy vysoké sankce na základě celosvětového obratu (až do výše 30 milionů eur, což je přibližně 4,7 miliardy jenů, nebo 6 % z celosvětového obratu, podle toho, která částka je vyšší), což může vést k tomu, že podnikání v oblasti AI v EU nebude možné.

Proto se od společností, které již v EU využívají AI, včetně japonských společností, a od těch, které uvažují o vstupu na trh EU v budoucnu, vyžaduje, aby se přizpůsobily nové regulaci AI v EU.

Základní struktura “Zákona o regulaci AI” spočívá ve třech hlavních rysích: “klasifikace AI na základě rizika”, “požadavky a povinnosti” a “podpora inovací”.

Regulace se týká podnikatelů, kteří cílí na evropský trh s AI systémy a službami, včetně vývojářů AI, nasazovatelů, poskytovatelů, dovozců, distributorů a uživatelů.

Rizika spojená s AI jsou kategorizována do čtyř úrovní a na každou z nich se vztahují odpovídající regulace. Pro dosažení principů AI je nezbytné zajistit opatření pro zvýšení gramotnosti v oblasti AI mezi vývojáři, uživateli a poskytovateli AI. Pro více informací si prosím přečtěte související články.

Související články: Současný stav a perspektivy zákona o regulaci AI v EU? Vysvětlení také dopadu na japonské společnosti[ja]

Klíčové body zákona o AI, které je třeba vzít v úvahu

Klíčové body zákona o AI, které je třeba vzít v úvahu

V této kapitole se zaměříme především na právní aspekty, které by společnosti měly vzít v úvahu při používání generativního AI.

O autorských právech k dílům vytvořeným AI

Mezi klíčové právní otázky týkající se děl vytvořených generativním AI patří:

  • Zda dílo porušuje autorská práva
  • Zda je možné uznat autorská práva na dílo vytvořené generativním AI

Jak již bylo zmíněno, díla vytvořená pomocí ChatGPT mohou být považována za porušení autorských práv, pokud vykazují podobnost nebo závislost na existujícím díle. Na druhou stranu, je možné uznat autorská práva na díla vytvořená generativním AI?

Podle zákona o autorských právech se za “autorské dílo” považuje “tvůrčí vyjádření myšlenek nebo emocí”. Vzhledem k tomu, že AI nemá myšlenky ani emoce, existuje názor, že obsah vytvořený generativním AI nemůže být chráněn autorskými právy.

Na druhou stranu, vzhledem k tomu, že proces generování obsahu AI je pro uživatele černou skříňkou (proces rozhodování je neprůhledný), je velmi obtížné pro uživatele dosáhnout, aby AI vyprodukovalo obsah přesně podle jejich představ. Pokud je však na úrovni výzvy (promptu) zřejmá uživatelova kreativní snaha, může být uznáno, že uživatel “tvůrčím způsobem vyjádřil myšlenky nebo emoce” prostřednictvím generativního AI, a v takovém případě by mohla být uznána autorská práva.

O zacházení s osobními údaji při používání AI

Při používání AI je třeba dbát na možné porušení zákona o ochraně osobních údajů. Je nutné přijmout opatření, jako je vyhýbání se zadávání osobních a soukromých informací.

Pokud jsou do promptu zadány osobní údaje, může to znamenat poskytnutí osobních údajů třetí straně ze strany poskytovatele služby. Obecně je pro poskytnutí osobních údajů třetí straně vyžadován souhlas subjektu údajů, a pokud takový souhlas neexistuje, může dojít k porušení zákona o ochraně osobních údajů.

V případě ChatGPT, i když byly zadány osobní údaje, systém je nastaven tak, aby je nebylo možné vypsat v chatu. To je založeno na politice OpenAI, která neukládá ani nesleduje osobní údaje, ale u jiných služeb nebo platforem se mohou podmínky lišit, a proto je třeba být opatrný.

Riziková opatření při zapojení AI do podnikání

Riziková opatření se liší v závislosti na obchodní strategii podniku, účelu využití AI a souvisejících právních předpisech, proto je důležité přijmout vhodná riziková opatření odpovídající situaci a cílům.

Podniky využívající generativní AI by měly zvážit následující body, aby minimalizovaly rizika:

  1. Vzdělávání a rozvoj zaměstnanců: Pro správné využití generativní AI je nezbytné mít odborné znalosti a dovednosti. Je důležité zajistit, aby zaměstnanci prostřednictvím vzdělávání a tréninků pochopili správné způsoby využití.
  2. Vytvoření a implementace interních směrnic: Snížení rizik je možné dosáhnout stanovením a dodržováním interních směrnic týkajících se využití generativní AI.
  3. Zřízení organizační struktury pro podporu využití a riziková opatření: Založení organizace podporující využití generativní AI a umístění týmu odpovědného za řízení rizik v rámci organizace je účinné.
  4. Zavedení systému: Pro správné zavedení generativní AI je nutné pečlivě vybrat a navrhnout systém.

Kromě toho rizika spojená s využíváním generativní AI jsou různorodá a zahrnují únik informací, porušení práv a soukromí, obavy týkající se přesnosti a bezpečnosti informací, a riziko zkreslení. Pro předcházení těmto rizikům je nezbytné zavést vhodné řízení a rámec pro řízení rizik.

Související článek: “Rizika spojená s podnikovým nasazením ChatGPT. Vysvětlení případů úniku důvěrných informací a opatření” [ja]

Shrnutí: Právní úprava AI je ve vývoji, nutné je udržet krok

Právní úprava týkající se AI podnikání, včetně prvního mezinárodního “AI regulačního zákona” v EU (zavedeného 9. prosince 2023), je ve fázi vývoje, což vyžaduje od firem, aby dodržovaly stávající zákony a zároveň flexibilně reagovaly na nové právní předpisy.

V Japonsku přímo regulující zákony o AI zatím neexistují, ale je nezbytné dobře rozumět souvisejícím zákonům, jako jsou zákony o autorských právech, ochraně osobních údajů a zákony proti nekalé soutěži, a správně na ně reagovat. Dále je důležité pečlivě sledovat budoucí změny souvisejících zákonů a rychle se na ně adaptovat.

Představení opatření naší kanceláře

Právní kancelář Monolith se specializuje na IT, zejména na internet a právo, a má bohaté zkušenosti v obou oblastech. Obchodování s AI přináší mnoho právních rizik a podpora právníků, kteří se vyznají v právních otázkách týkajících se AI, je nezbytná.

Naše kancelář poskytuje pokročilou právní podporu pro AI podnikání, včetně ChatGPT, s týmem právníků a inženýrů specializujících se na AI. Nabízíme tvorbu smluv, posouzení legality obchodních modelů, ochranu duševního vlastnictví a řešení související s ochranou soukromí. Podrobnosti naleznete v níže uvedeném článku.

Specializace Právní kanceláře Monolith: Právní služby pro AI (včetně ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Zpět na začátek