當前人工智慧法律規範的現狀是什麼?解說日本與歐盟的比較和對策要點
像ChatGPT這樣的生成AI已經成為一大熱潮。現在,生成AI已被引入商業場景中,被稱為「第四次AI熱潮」的引爆者。與此同時,全球範圍內也在積極推進制定規範AI的法律框架。
本文將介紹與AI相關的法律,並解釋知識產權、個人信息等機密信息的適當處理方法。
AI(人工智能)的定義與歷史
AI(artificial intelligence,人工智能)在法律上沒有嚴格的定義,存在著多種不同的定義。以下是其中的一些例子。
出處 | 定義・解釋 |
「廣辭苑」 | 裝備了推理・判斷等智能功能的電腦系統。 |
「大英百科全書」 | 科學技術 > 電腦・AI。與智能存在相關的問題由數位電腦或電腦機器人執行的能力。 |
人工智能學會文章「作為教養知識的AI」 | 對於「什麼是AI」的問題,答案並不簡單。即使在AI專家之間,也存在著大量的討論,足以編成一本書的程度,觀點各異。在這些中,如果要總結一個共通點,那麼可以說是「機械工程學地實現與人類相同的智能工作的技術」。 |
學術論文「深度學習與人工智能」 | AI是一個旨在建構論地解明人類智能機制的學問領域 |
學術論文「尋求人工智能社會的理想模樣」 | AI以及其他資訊技術,終究是工具 |
AI被認為是在電腦上再現人類智能能力的各種技術、軟件群、電腦系統、算法等。
作為主要的特化型AI,可以列舉以下幾項:
- 自然語言處理(機器翻譯・語法分析・形態素分析・RNN等)
- 模仿專家的推理・判斷的專家系統
- 從數據中檢測・提取特定模式的圖像識別、語音識別等
AI(人工智能)這一領域自1950年代電腦黎明期以來,研究開發持續進行,第一次AI熱潮發生在1970年代,以「搜索與推理」的研究為主;第二次AI熱潮發生在1980年代,以「知識表示」的研究為主,誕生了專家系統,形成了兩次熱潮的範式。
進入2000年代後,隨著大數據的出現,2012年以後隨著Alexnet的出現,圖像處理中深度學習(深層學習)的有效性被全世界認可,研究迅速活躍起來,第三次AI熱潮到來。
從2016年到2017年,引入了深度學習(深層學習)和強化學習(Q學習・策略梯度法)的AI相繼出現。
第三次AI熱潮的主要革命在於自然語言處理、通過傳感器進行的圖像處理等視覺方面非常顯著,但也對技術開發、社會學、倫理學、經濟學等領域產生了巨大影響。
2022年11月30日,OpenAI推出的自然語言處理生成AI——ChatGPT作為萬能工具受到關注,生成型AI業務變得活躍,有人將這一社會現象稱為第四次AI熱潮。
應檢視AI相關法律的商業場景
生成AI作為AI的一種,雖然是一項有用的工具,但同時也包含了傳播錯誤信息、助長犯罪,甚至有時候威脅到民主主義的風險。
這些AI所帶來的風險要素,現在已成為不可避免的挑戰。因此,本所將從用戶和提供者的立場,解說應檢視法規制的商業場景。
使用文章生成AI
自從2022年11月「ChatGPT」推出以來,文章生成AI因能夠應對複雜的請求,被視為可以提高工作效率和具有高成本效益的萬能工具,受到全球的關注。
然而,使用文章生成AI也伴隨著風險。在避免這些潛在風險時,必須注意哪些風險存在,以及必須遵守哪些法律。
以文章生成AI的代表ChatGPT為例,如果不採取任何措施,用戶輸入的信息(提示)可能會洩露。由於ChatGPT具有收集、保存和使用提示的功能,因此可能會洩露個人信息、企業的機密信息、簽訂的保密協議(NDA)獲得的秘密信息等保密信息。
此外,還有ChatGPT特有的生成錯誤信息(幻覺)並傳播的風險、侵犯著作權等風險。因此,對輸出內容進行事實核查是必不可少的。
使用圖像生成AI
在商業中使用圖像生成AI時,必須考慮到侵犯著作權的風險。
根據OpenAI的說法,由ChatGPT等生成的圖像或文章的著作權基本上屬於生成者。用戶可以將ChatGPT等用於任何目的(包括商業利用)。
但是,在使用時需要注意以下幾點:
ChatGPT的學習數據包含了大量在互聯網上公開的內容,這些內容大多是著作物(文本、圖像、音樂、影片等)。因此,生成的內容可能會侵犯他人的著作權。
AI開發與生成AI服務的提供
AI商業涉及多種法律,世界各地也在進行法律框架的建設階段,因此需要在遵守現有法律的同時,靈活應對新的法律。
下一章將解說日本關於AI的法律,以及2023年12月制定的世界首個國際性的歐盟「AI規制法」。
日本的AI相關法律
目前在日本,AI並未受到具強制力法律的規範,而是採取自主規制的方針應對。本文將解說在利用AI時應注意的現行法律。
參考:經濟產業省|「AI原則實踐的治理指南 ver. 1.1」[ja]
著作權法
於平成31年(2019年)1月實施的「修正著作權法」中,新增了權利限制規定(免許可的例外規定)「資訊分析」(該法第30條之4的1項2號)。在AI開發或學習階段進行的資訊分析等,不以享受著作物所表達的思想或情感為目的的使用行為,原則上可以不經著作權人許可進行。
這項修正明確了包括AI的深度學習在內的機器學習也屬於「資訊分析」的範疇。
資訊分析(從大量著作物或其他大量資訊中,提取構成該資訊的語言、聲音、影像或其他要素的資訊,並進行比較、分類或其他分析的行為)的使用情形
著作權法第30條之4的1項2號
另一方面,使用AI生成的創作物若被認定與他人著作物相似或依賴,需注意可能構成著作權侵害。
此外,將著作物作為ChatGPT的提示輸入時,可能會侵犯複製權等。使用生成型AI對他人著作物進行修改時,也可能會侵犯改編權等。
根據OpenAI的使用條款,由ChatGPT創建的內容權利歸用戶所有,且可進行商業利用,但若判斷內容是否構成著作權侵害有困難時,建議諮詢專家。
萬一被著作權人指出著作權侵害,可能會面臨民事責任(使用禁止令、損害賠償、慰問金、名譽恢復等法律措施)或刑事責任。
不正競爭防止法
平成31年(2019年)7月1日,修正不正競爭防止法實施。以前,不屬於專利法或著作權法保護對象,或不符合不正競爭防止法「營業秘密」的情況下,防止不正競爭行為困難。
因此,此次修正規定了對於一定價值的數據(限定提供數據)的不正取得行為或不正使用行為等惡意行為的民事措施(禁止請求權、損害賠償額的推定等)。
歐盟AI使用相關法律
歐盟的法律體系由三部分構成:一次法(條約)、二次法(歐盟立法)和判例。二次法是基於一次法(條約)制定的,直接或間接約束成員國的法律,被稱為歐盟法(派生法)。二次法大致分為五種類型,而歐盟的「AI規範法」屬於規則(Regulation),因此是直接約束歐盟成員國的統一規則。
另一方面,指令(Directive)要求歐盟各成員國根據指令的內容,在國內制定新的法律或進行修改,從而承擔間接的法律義務。通常,期限定為歐盟官方公報發布後的3年內。
相關文章:歐洲業務拓展企業必看 歐盟的法律與法律體系要點解說[ja]
本章將解說歐盟AI使用相關法律規範中「指令」和「規則」的最新動態。
AI責任指令草案
2022年9月28日,歐洲委員會公布了「AI責任指令草案」以及「製造物責任指令」的修訂案。這為符合「AI規制法」的歐盟(EU)內AI業務設定了法律責任規則,成為重要的法律框架。由於將從2023年6月開始適用於歐盟的「集體訴訟指令」,相關的日本企業也需要了解其內容。
在數字時代的循環經濟和全球價值鏈中,這對於歐盟內開始的AI系統及其他軟體相關的民事責任法律規則進行了重大變革。
相關文章:歐盟AI規制法的現狀與展望?也解析對日本企業的影響[ja]
「AI責任指令草案」的目的在於設定基於契約外事由的民事責任規則,針對由AI系統引起的損害,以提升歐盟內市場的功能。
也就是說,這不適用於契約上的責任(違約責任、契約不符責任),而是不限於由於安全性不足而產生的「製造物責任指令」適用範圍內的損害,過失責任(如侵權行為責任)也是其覆蓋範圍。例如,由AI招聘系統引起的歧視等損害也被視為適用範圍。
該指令草案針對AI的黑箱問題,對開發「高風險AI系統」的業者減輕證明負擔,引入了「因果關係推定」和「證據披露制度」。
如果不遵守證據披露命令,對於「AI責任指令草案」將推定注意義務違反及因果關係,而對於「製造物責任指令修訂案」則推定存在缺陷及因果關係,並規定了比日本民事訴訟法更嚴格的處罰。
該指令草案在第一階段限於針對AI黑箱化及相關的「證明負擔減輕措施」,新設了原告資格、證據披露、證據保全、因果關係推定等要求並進行了規定。
第二階段將規定審查及評估。歐洲委員會將設立監控計劃,審查事件信息,評估對高風險AI系統業者施加無過失責任(嚴格責任)的適當性及強制保險的必要性等進一步措施,並向歐洲理事會和歐洲議會等報告。
製造物責任指令的修正案
「製造物責任指令」是一項於1985年制定的歐盟法律,旨在保護消費者,規定了因製造缺陷導致消費者受到損害時製造商的責任。
在這項修正案中,「製造物責任」的適用範圍新增了「軟體」作為製造物的一部分,如果人工智能系統這類軟體存在「缺陷」,則該人工智能系統的經營者將適用無過失責任。此外,判斷「缺陷」是否存在的標準新增了設置後的持續學習能力和軟體更新。
在日本現行的「日本製造物責任法」中,一般不將軟體視為動產,因此不屬於法律適用的「製造物」範疇,但是對於「製造物」的概念進行了調整。這項修正案還引入了「證明責任輕減措施」,可能對人工智能系統和其他先進技術產品的軟體產生重大影響。
AI規制法
「AI規制法(AI Act)」是針對AI業務的全面性歐盟統一規則(次級法律),包含85條條款,是世界上第一部國際性規範AI的法律。於2023年12月9日,經過歐洲委員會、歐洲議會及歐洲理事會的臨時協議後制定。預計於2024年生效並全面實施。
該法律是歐盟「適合數字時代的歐洲」數字戰略的核心法律,旨在應對數字時代進化中的新挑戰和風險。它保障AI的安全性和基本權利,也是旨在加強歐盟整體對AI的關注、投資和創新的廣泛AI套件的一部分。
歐盟的「AI規制法」直接適用於歐盟成員國,並且在歐盟境內開展業務時也適用跨境,對海外的事業者也將適用。
違反時,將面臨巨額的制裁金(最高可達3,000萬歐元=約47億日元或全球銷售額的6%的較高者為上限),也可能導致無法在歐盟圈內從事AI業務。
因此,包括日本在內,已經在歐盟市場引入AI的企業,或是考慮未來進入歐盟市場的企業,也需要遵守歐盟的新AI規範。
「AI規制法」的主要內容可大致分為三個特點:「基於風險的AI分類」、「要求事項和義務」、「創新支持」。
規範對象為針對歐洲市場投入AI系統・服務的事業者,包括AI的開發者、部署者、提供者、進口商、銷售商和用戶。
將AI的風險等級分為四個階段,並根據此進行相應的規範。為達成AI原則,確保AI開發者、使用者、提供者的AI素養措施也是必不可少的。詳情請參閱相關文章。
相關文章:歐盟的AI規制法現狀與展望?也解說對日本企業的影響[ja]
關於AI相關法律的注意點
本章主要解說企業在使用生成型AI時,法律上應留意的幾個要點。
關於AI創作物的著作權
關於由生成型AI創造的作品,需要注意以下法律論點:
- 該創作物是否侵犯著作權
- 生成型AI創造的作品是否被認可著作權
如前所述,如果ChatGPT生成的作品與著作物具有相似性或依賴性,則可能構成著作權侵犯。另一方面,生成型AI創造的作品是否能被認可著作權呢?
根據著作權法,「著作物」被定義為「創造性地表達思想或感情的成果」。由於AI不具備思想或感情,因此有觀點認為,生成型AI創造的內容不應被認可著作權。
然而,由於AI生成內容的過程對用戶來說是一個黑盒(判斷過程不透明),使得用戶要讓AI產出符合期望的內容非常困難。因此,如果在提示階段用戶的創意被認為是存在的,那麼可以說是用戶自己的「思想或感情」通過生成型AI「創造性地表達」了出來,這種情況下可能被認可著作權。
使用AI時關於個人信息的處理
在使用AI時,需要注意可能會觸犯個人信息保護法的風險。需要採取措施,如不輸入個人信息或隱私相關信息等。
如果在提示中輸入了個人信息,可能會被視為對服務提供商的第三方提供個人信息。原則上,向第三方提供個人信息需要本人同意,因此,如果沒有本人同意,可能會違反個人信息保護法。
在ChatGPT中,即使不小心輸入了個人信息,也設有不會在聊天中輸出的機制。這是因為OpenAI的政策是不保存或追踪個人信息,但在其他服務或平台上可能有所不同,因此需要特別注意。
企業涉足AI時的風險對策
風險對策會根據企業的商業策略、AI的使用目的以及相關法規制而有所不同,因此,根據情況和目的採取適當的風險對策是非常重要的。
欲利用生成AI的企業若要將風險降至最低,應考慮以下幾點:
- 人才培養:適當使用生成AI需要專業知識和技能。通過員工教育和培訓,讓他們理解正確的使用方法是非常重要的。
- 制定並實施公司內部指南:通過制定有關使用生成AI的公司內部指南並要求員工遵守,可以減少風險。
- 建立推進利用和風險對策的組織:建立一個推進生成AI利用的組織,並在組織內設置負責風險管理的團隊,這是有效的。
- 系統導入:為了適當地導入生成AI,需要謹慎選擇和設計系統。
此外,使用生成AI伴隨的風險正在多樣化,包括信息洩露、權利和隱私侵犯、信息的準確性和安全性的擔憂、偏見風險等。為了避免這些風險,引入適當的治理和風險管理框架是必不可少的。
相關文章:「導入ChatGPT的企業風險:機密信息洩露案例及對策解說」[ja]
總結:AI法律仍在整備途中,需要持續追趕
關於AI業務的法律,從歐盟開始制定的世界首個國際性「AI規範法」(2023年12月9日制定)來看,法律框架的建設仍處於進行階段,因此,企業需要在遵守現有法律的同時,也要靈活應對新的法律。
在日本,雖然還沒有直接規範AI的法律,但是需要深入理解著作權法、個人信息保護法、不正當競爭防止法等相關法律,並適當應對。此外,還需要關注相關法律未來修正的動向,並迅速做出反應。
本所提供的對策介紹
Monolith法律事務所是一家在IT領域,特別是互聯網和法律方面擁有豐富經驗的法律事務所。AI業務伴隨著許多法律風險,因此,獲得精通AI相關法律問題的律師支持是必不可少的。
本所擁有精通AI的律師和工程師等組成的團隊,為包括ChatGPT在內的AI業務提供契約書撰寫、業務模型的合法性審查、知識產權保護、隱私應對等高級法律支援。詳細內容請參閱下列文章。
Monolith法律事務所的業務範圍:AI(包括ChatGPT等)法務[ja]
Category: IT