AI的謊言與著作權侵害如何防範?安全利用AI生成物的AI內部規範是什麼

能否將AI轉變為業務的推動力,或者反而成為品牌損害的導火線,其關鍵在於是否擁有有效的「AI內部規定」。特別是在日本,著作權侵害或因幻覺產生的錯誤資訊擴散,一旦發生,不僅可能面臨法律制裁,還可能瞬間失去長期累積的客戶信任。
在本文中,本所將解釋如何在日本的商業環境中,保持競爭力的同時,實現安全的AI運營,並提供當前應主導的合規體系和規定整備的指導方針。
AI生成物的「品質」與「權利」中的潛在陷阱
生成AI已經成為一種吸引人的工具,能夠大幅減少從無到有的巨大勞力,並顯著提高從創意工作到事務作業的效率。然而,在其便利性背後,潛藏著與傳統IT工具根本不同的法律風險,特別是在日本的法律框架下。
生成AI所產生的輸出結果是基於大量現有學習數據概率性導出的,由於其生成過程是黑箱化的,使用者在不知不覺中可能侵犯他人權利,或將看似合理的謊言作為真相傳播,這些風險始終存在。
在商業現場中,「因為是AI生成的」這種辯解是行不通的。導入AI於業務的企業或使用AI的個人,對其輸出結果需承擔法律責任。為了避免因不當信息傳播而造成的名譽毀損或因著作權侵害而引發的損害賠償要求,不應僅依賴現場的裁量,而是需要作為組織設立明確的「防護欄」。根據最新的日本法律和指導方針,迅速建立堅實的內部規定,以防止成為著作權侵害的加害者或受害者,並阻止錯誤信息的傳播。
風險1:避免成為著作權侵害的加害者

在商業中使用生成AI時,最令人擔憂的是可能侵犯他人的著作權,從而承擔法律責任的風險。由於生成AI的運作機制,其輸出內容往往會反映學習數據中包含的既有著作物的特徵。正確理解這一過程,並明確掌握在何種情況下會被視為「侵害」,是防範措施的第一步。
生成AI與日本著作權的機制
生成AI根據輸入的指示(提示),從學習的大量數據中提取模式,並生成新的內容。在此過程中,AI並非理解「信息的意義」,而是根據統計概率來預測下一個單詞或像素。因此,可能會在使用者的意圖之外生成與特定創作者的作品或特定著作物極為相似的內容。
根據日本文化廳公佈的「AI與著作權的觀點」,AI生成物的著作權侵害判斷將依照與通常著作物相同的框架進行。具體而言,當認定與現有著作物存在「相似性」及「依據性」時,侵害即成立。
參考:文化廳|AI與著作權
侵害成立的兩大要件:「類似性」與「依據性」
類似性指的是生成的輸出內容與現有著作物的創作性表現相同,或共享本質特徵的狀態。另一方面,依據性則意味著該作品是「基於」現有著作物創作而成。在傳統的日本著作權侵害案件中,焦點通常在於創作者是否曾經看過該著作物,但在生成AI的情況下,AI的學習數據中是否包含該著作物成為重要的判斷依據。
特別值得注意的是,即使使用者不知曉現有的著作物,若AI已經學習過該內容,依據性仍可能被認定。這被稱為「黑箱問題」。根據日本文化廳的見解,即使學習數據的內容不明,若AI廣泛學習了互聯網上的資訊,且生成物與現有著作物顯著類似,依據性更容易被推定。
參考:文化廳|令和5年度(2023年)著作權研討會 AI與著作權(P48)
權利限制規定(第30條之4)的範圍與限制
根據日本著作權法第30條之4,在AI的學習階段中,若非以自我「享受」著作物中表達的思想或情感為目的,則可在未經著作權人許可的情況下使用。此規定廣泛承認以資訊解析為目的的非享受性使用,並成為支撐日本AI開發的重要法律基礎。
然而,這項規定僅適用於「學習」階段,並不適用於生成內容的「利用」階段。此外,若進行以特定創作者的風格為目標的額外學習(如LoRA等),則可能被視為具有「享受」目的,從而不適用於第30條之4。因此,需特別注意這一點。
AI社內規定中的對策:提示詞與服務的選擇
在AI社內規定中,為了將依賴性的風險降至最低,設置輸入階段的限制是有效的。具體來說,應原則上禁止在提示詞中包含特定藝術家名稱或具體作品名稱。此外,對於像Image-to-Image(i2i)這樣上傳現有圖片進行生成的功能,必須徹底限制為使用公司擁有權利的圖片或權利關係明確的素材。
此外,選擇使用的AI服務也很重要。在一些付費方案中,有提供著作權侵害風險補償的「著作權免責」服務,但建議仔細審查其適用條件,並將選擇符合公司內部安全標準的過程納入規定中。
以下的表格總結了為避免著作權侵害而應在社內規定中整理的檢查要點。
| 確認項目 | 具體的規定方向 | 依據的觀點 |
| 提示詞輸入 | 禁止輸入特定作家名、作品名、專有名詞 | 防止成為依賴性的直接證據 |
| 追加學習(如LoRA) | 限制以再現特定權利者風格為目的的學習 | 避免因享受目的的共存而產生的權利侵害風險 |
| 外部圖片的使用 | 僅限於公司權利物或已取得授權的素材 | 阻斷i2i功能中依賴性的發生 |
| 服務選擇 | 採用可商業利用且權利關係透明度高的方案 | 確認AI提供方的使用條款遵守及補償體系 |
風險2:AI生成物是否會產生「著作權」?(為避免成為受害者)
在導入AI並創建成果物的情況下,當該成果物被其他公司未經許可使用時,能否主張自家公司權利是個重要的論點。根據目前的日本法律解釋,僅由AI自律生成的內容不會產生著作權。企業若要確保生成物的權利並將其作為智慧財產保護,則需要滿足一定的條件。
「著作物」的定義與創作性的門檻
根據日本著作權法第2條第1項第1號,著作物被定義為「創作性地表達思想或感情的作品」。由於AI是沒有「思想」或「感情」的機械,因此僅由AI自動生成的內容不被認定為著作物。因此,若有人僅輸入簡短的提示詞給AI並獲得結果,通常被視為沒有「創作性貢獻」,在法律上不受保護,並處於任何人都可以自由使用的狀態(接近公共領域的狀態)。
要被認定為著作物,人類必須將AI作為「工具」來運用,並且人類的「創作性意圖」和「創作性貢獻」必須被承認。超越單純的指示,人類是否實質上控制了表現內容,成為權利產生的關鍵。
作為確保權利的「工具」之運用
具體來說,什麼樣的行為會被認定為創作性貢獻,以下要素將被綜合考量。首先,提示的內容必須具體且詳細。不僅僅是「貓的畫」,而是需要細緻地指定構圖、色彩運用、筆觸等,並通過反覆試驗來逐步縮小理想表現的範圍。其次,對於AI生成的輸出,人類進行增補、修正,或將多個生成物組合成新的構成。這樣由人類所加的部分,通常會被認定具有著作物性。
作為企業,為了在AI生成物被其他公司模仿時能夠進行對抗,建立保存生成過程(提示的歷史和修正的日誌)的運作流程是非常重要的。
在日本業務中創建的AI生成物的權利歸屬
當員工在業務中使用AI進行創作性貢獻並完成著作物時,該權利應歸屬於誰呢?根據日本著作權法第15條(職務著作)的規定,基於法人意圖,由從事業務的人員在職務上創作並以法人名義發表的著作物,除非另有規定,著作權歸屬於該法人。
即使在使用AI的情況下,只要人類的創作性貢獻被認可,這一職務著作的框架仍然適用。然而,對於AI自律生成的部分(即人類沒有創作性貢獻的部分),則不會產生著作權,因此不適用於法第15條。在公司內部規定中,明確AI生成物的權利歸屬於公司,以及設立鼓勵創作性貢獻的運用條款是非常重要的。
以下的表格顯示了AI生成物被認可為著作物的要素及判斷重點。
| 判斷要素 | 容易被認可為著作物的情況 | 容易被否定為著作物的情況 |
| 提示的性質 | 詳細且具體的指示,表現細節的指定 | 簡短且抽象的指示,僅提供概念 |
| 試行錯誤的過程 | 多次生成與選擇,反覆微調指示 | 一次生成即直接採用 |
| 人類的加工 | 對生成物進行直接的增補、修正、色彩變更 | 直接使用AI的輸出,無任何加工 |
| 構成與選擇 | 獨立組合多個生成物並進行配置 | 僅展示單一生成物 |
風險3:針對幻覺(AI的謊言)的法律防禦措施在日本

生成AI面臨的重大技術問題之一是幻覺(虛構事實)。這是指AI輸出看似合理但實際上是虛假的信息。在商業應用中,這可能導致錯誤信息的傳播,進而引發名譽損害,或基於錯誤數據做出決策,造成嚴重後果。
幻覺的本質與商業上的實際危害
幻覺現象的產生,是因為人工智慧並非在驗證真實性,而是在追求語言排列的機率性正確。因此,可能會捏造不存在的判例或將虛構事件報告為事實。實際上,在美國曾報導過有律師使用生成式AI製作的文件中包含虛構判例,這在法庭上引發了重大問題。
在企業活動中,若將包含幻覺的資訊對外發佈,可能會引發以下法律風險。首先,若內容損害特定個人或法人名譽,可能會面臨因名譽毀損而產生的損害賠償責任。其次,若基於錯誤的市場數據或財務預測進行投資判斷,可能會違反善良管理者的注意義務(善管注意義務)。此外,若向客戶提供錯誤的產品規格或法律解釋,可能會被追究契約上的債務不履行責任或業務妨害。
技術性對策:RAG(檢索擴展生成)的應用
作為技術性防禦措施,導入RAG(檢索擴展生成)是有效的。這項技術讓AI在生成回答時,不是參考外部不特定多數的信息,而是參考事先由公司準備的準確文件或可信賴的資料庫。透過這種方式,可以明確回答的依據,並大幅降低幻覺風險。
然而,即使導入了RAG,仍然不能省去人為的檢查。因為AI仍有可能錯誤解釋參考資料或進行不完整的摘要。
運用中的對策:強制進行事實查核
在公司內部規定中,最重要的是不要盲目相信AI的輸出結果,而是將人為的「事實查核」作為一個必須的流程。根據日本經濟產業省與總務省的「AI事業者指導方針」,AI使用者應理解輸出結果的準確性,並負責任地進行使用判斷。
具體而言,對於AI所提供的事實關係或數字,必須建立一個流程,將其與政府機構的官方網站、公共統計、官方發布等一次信息進行比對。特別是對外發布的文件、高額交易相關的資料、具有法律效力的書面文件,應在認識到其為AI生成物的基礎上,將嚴格的雙重查核制度納入規定中。
管理權利與真偽的AI公司內部規範範例
基於上述的風險分析,以下提供應納入公司內部規範的具體條文範例。規範不僅應定義「禁止事項」,還應定義「使用流程」,以便員工能夠安全地利用AI。
輸入提示時的禁止事項(著作權與安全性相關)
規範範例:
- 使用者在輸入生成AI的提示時,不得輸入特定個人、知名人士或藝術家的名稱,並指示模仿其風格或特徵。
- 在輸入現有的圖片、文件、源代碼等著作物並進行改編或修改時,僅限於公司是該著作物的正當權利人,或已獲得AI使用相關許可的情況。
- 在可能被用作學習數據的服務中,嚴禁輸入公司的機密信息、個人信息及他人的非公開著作物。
AI生成物的使用流程(準確性與相似性確認)
規範範例:
- 在將AI生成物用於對外資料、宣傳、產品、服務等時,負責人必須使用Google圖片搜索或市售的抄襲檢查工具等客觀手段,確認是否存在與現有著作物的相似性。
- 對於AI輸出的事實、數據、歷史背景、法律解釋等信息,必須與可信的一次信息(如公共數據、官方文件等)進行比對,並由人員確認其真實性後方可使用。
- 在重要決策中使用AI生成物時,必須將生成過程(使用的提示、比對的來源)作為記錄保存,並獲得上級或專業部門的批准。
商業用途時的規約再確認流程
規範範例:
- 在將生成AI服務用於商業用途或外部分發目的時,負責人必須確認該服務的最新使用規約,並事先確認商業用途的可行性及生成物的權利歸屬是否無問題。
- 若服務提供方修訂了使用規約,應立即審查其內容,並重新評估與公司內部規範的一致性。
總結:為安全使用AI制定AI內部規範,請諮詢日本律師
生成AI若能正確控制,將成為引發人類創造力並將業務生產力提升至全新層次的「優秀助手」。然而,這位助手有時可能會侵犯他人的著作權,甚至編造看似合理的謊言,使組織陷入困境。本篇文章中詳細說明的風險,並非為了限制AI的使用,而是為了正確理解風險的本質,並設置適當的「護欄」,以便能夠最大限度地加速前進。
企業構建AI治理已不再是選擇,而是實現可持續經營的必要條件。制定反映著作權法、AI業者指導方針及文化廳最新見解的內部規範,並確立由人類承擔最終責任的「Human-in-the-loop」體制,將成為AI時代商業成敗的關鍵。
本事務所提供的對策指南
Monolith法律事務所是一家在IT領域,特別是互聯網和法律方面擁有豐富經驗的法律事務所。在日本,AI業務伴隨著許多法律風險,因此需要熟悉AI相關法律問題的律師提供支持是不可或缺的。本事務所由精通AI的律師和工程師等組成的團隊,針對使用ChatGPT等技術的AI業務,提供合約書製作、商業模式合法性檢討、智慧財產權保護、隱私應對、AI內部規範整備等高階法律支持。詳細內容請參閱下方文章。
Category: IT




















