生成式AI導入帶來的資訊洩漏風險是什麼?律師教您如何透過「AI內部規範」進行防禦策略

生成式人工智慧(AI)已經超越了僅僅是業務效率化的工具,演變成為影響企業競爭力的不可或缺的基礎設施。然而,在其快速普及的背後,與傳統IT系統本質上不同的「資訊洩漏」和「隱私侵害」風險正在加劇。在許多組織中,由於過於重視便利性,現場在沒有明確規則的情況下自行推進使用,導致「影子IT」現象的蔓延,並在無意中將機密資訊納入AI模型的學習中。
本文將解釋生成式AI技術特性所引發的洩漏機制,並從日本的不正競爭防止法和個人資訊保護法等法律觀點整理可能產生的重大風險,進而闡述在防範這些風險的同時,加速事業成長的有效AI內部規範整備的重要性。
在日本導入生成AI時制定獨特「AI社內規定」的必要性
隨著生成AI的社會實裝加速,許多組織僅因「便利」而未進行充分的風險評估便推進導入。
特別是在中小企業中,由於IT素養的差距和法律資源的不足,隨機應變的使用現狀被指出會引發「負面螺旋」。這種負面螺旋指的是,由於缺乏明確的使用標準,現場混亂,一些員工的不當輸入使信息洩漏風險顯現。感到危機的組織在未考慮具體對策前採取「一律禁止」措施,但追求便利的現場則在公司不知情的情況下,繼續使用私人帳號,形成所謂的「影子IT(影子AI)」的地下結構。
影子IT化的恐懼在於,組織無法控制的地方,企業未來至關重要的商業秘密或客戶個人數據被發送到外部平台,並作為AI模型的學習數據被二次利用。放任這種狀態不僅會增加信息洩漏事故的可能性,還可能導致後述不正當競爭防止法上的「秘密管理性」喪失,進而自動放棄作為企業知識產權的保護。
因此,對組織而言,真正需要的不是一律禁止或完全依賴現場,而是在正確理解生成AI特性的基礎上制定獨特的「AI社內規定」。僅僅套用一般雲服務的指導方針,無法應對生成AI特有的過程(如作為上下文學習或微調材料的風險),即輸入數據被用於AI學習。理解構建治理以確保信息安全,同時讓組織能正當且安全地運用生成AI這一強大工具的必要性至關重要。
生成AI導致資訊洩漏的機制與實例(日本)

在使用生成AI時,最需要注意的是,使用者輸入的提示(指示文)或數據可能會被傳送到開發和提供AI模型的業者的伺服器,並在那裡被用作「學習數據」。與傳統的搜尋引擎或翻譯服務的決定性差異在於,輸入的信息片段會被納入AI模型的內部,未來可能會作為其他使用者(有時甚至是競爭對手的員工)詢問時的「回答的一部分」而被輸出。
三星電子的機密源代碼洩漏案例
這一機制所帶來的具體風險在全球範圍內引起關注的是韓國三星電子的源代碼洩漏案例。令和5年(2023年)5月,該公司的工程師在進行半導體相關程序的除錯作業時,將高度機密的源代碼直接輸入到ChatGPT中。此外,另一名員工為了總結公司內部會議內容,將包含未公開產品策略的會議記錄貼入提示中,這一事件也被揭露。
這些數據因OpenAI當時預設採用的「將輸入數據用於模型學習」的機制,被納入AI模型的內部學習素材。這一事件的本質教訓在於,即使員工沒有惡意,單純出於「提高工作效率」的自然行為,也可能導致組織遭受致命損害的資訊洩漏。
系統故障或設定不當導致的「外部・內部洩漏」
此外,洩漏風險不僅限於學習的二次利用。令和5年3月,由於ChatGPT的系統故障,部分使用者能夠查看他人聊天記錄標題的漏洞發生。這是由於服務提供方的程式缺陷所致,即使使用者遵守規則,外部平台的脆弱性也可能導致資訊暴露。
此外,像Microsoft 365 Copilot這樣與組織內文件連接的工具,如果內部的存取權限設定不當,原本無權查看的員工可能通過AI搜尋和總結機密文件,這也被指出存在「內部洩漏」的風險。
「非公知性」的喪失與企業競爭力下降
對營業秘密的損害意味著,一旦被學習的信息在數位空間中將永久失去「非公知性」。
當競爭對手向AI諮詢特定技術問題時,自家公司輸入的突破性解決方案作為回答被提供的情況,已不再是幻想。如此一來,對生成AI的不慎輸入,不僅僅是資訊的洩漏,更是對企業多年來的研究開發成果和戰略優勢的根本性動搖,應予以認識。
在日本不正競爭防止法下的營業秘密保護喪失風險
將機密信息輸入生成AI可能會導致失去作為法律上「營業秘密」的法律保護,這是一個極其嚴重的法律後果。在日本的不正競爭防止法中,信息要被保護為營業秘密,必須滿足以下三個要件。
| 要件項目 | 內容的定義 | 生成AI輸入的影響 |
| 秘密管理性 | 客觀上被作為秘密管理 | 未經公司許可輸入AI的行為可能被視為管理不充分 |
| 有用性 | 對業務活動有用的技術或營業信息 | (即使輸入AI也不會立即失去) |
| 非公知性 | 不為一般人所知 | 若AI學習並可用於回答他人,則非公知性將喪失 |
首先關於「秘密管理性」,根據經濟產業省的「營業秘密管理指針」和「秘密信息保護手冊」,信息持有者必須有意識地將信息作為秘密管理,並且員工等能夠認識到這一點。如果員工未經公司允許,或公司未強制適當設置(如選擇退出等),將營業秘密輸入生成AI,法院可能會判定「公司未採取適當措施保護秘密」,從而否定秘密管理性。
接下來關於「非公知性」,如果輸入的信息被AI模型學習並用作全球用戶回答的來源,則該信息不再能被視為「不為公眾所知」。一旦缺乏這一法律要件,即使該信息被其他公司模仿或被跳槽的員工帶走,也無法根據不正競爭防止法提出禁令或損害賠償請求。換言之,隨意將信息輸入生成AI等同於企業自願放棄其作為知識產權的價值。
最近的動向顯示,在令和6年(2024年)4月公佈的「AI事業者指導方針(第1.0版)」中,強調了AI整個生命周期的風險緩解。其中指出,AI使用者應注意輸入數據和提示的處理,防止不當輸入機密信息作為「共同指針」。如果組織未能按照該指導方針建立適當的治理,則脫離法律保護框架的風險將進一步增加。
違反日本秘密保持契約(NDA)與合約風險
在許多商業交易中,為了保護從對方獲得的信息,會簽訂秘密保持契約(NDA)。將信息輸入生成AI可能會違反此合約義務,並承擔巨額賠償責任的風險。
通常,NDA包含「不得用於本合約目的以外的用途(禁止目的外使用)」以及「未經對方事先書面同意,不得向第三方披露(禁止第三方披露)」的條款。若員工將從交易夥伴獲得的資料輸入生成AI進行摘要或分析,這種行為很可能明顯違反這些條款。
AI服務的提供者對於合約當事人來說屬於「第三者」。除非使用API或企業用戶付費方案,否則一般僅依據條款提供的服務會將輸入數據儲存在開發者的伺服器上,並用於其目的(如模型改進等)。這無疑是將託付的信息用於「合約目的外」,並提供給「第三者」。
此外,根據日本數位廳及內閣網絡安全中心(NISC)於令和7年(2025年)2月公佈的警示,若使用如DeepSeek等海外基地的AI服務,數據可能儲存在國外伺服器上,並適用當地法令(如審查或徵收的可能性)。將交易夥伴的信息置於如此不確定的環境中,將成為被指控違反合約上善良管理注意義務的有力依據。
違反日本個人情報保護法與隱私風險

在運用生成AI時處理個人數據,必須嚴格遵守日本的個人情報保護法及相關指導方針。個人情報保護委員會已於令和5年(2023年)6月,基於生成AI服務的普及,發佈了注意喚起,明確指出企業應遵循的事項。
特定利用目的與剖析的注意事項
根據日本《個人信息保護法》第21條第1項,當取得個人信息時,除非事先已公開其利用目的,否則必須迅速通知或公開給本人知悉。在將取得的個人數據用於AI學習時,需要考量此行為是否在既有利用目的的範圍內,或者是否應重新特定為「AI學習及輸出生成」的目的。
特別是在招聘選拔或人事評估中使用AI進行候選人性格及適性分析(剖析)時,因可能對本人的權利利益產生重大影響,因此要求更具體地特定並明示此類分析處理作為利用目的。在針對令和7年(2025年)以後的法改正討論中,強調了不受剖析決定的「權利」及透明性確保的重要性,並朝著加強對AI自動化決策的規制方向發展。
第三者提供與「委託」的界線
在將個人數據輸入至AI服務時,判斷這是否屬於日本法律第27條第1項中的「第三者提供」,或是屬於「委託」,是重要的法律分水嶺。一般來說,如果輸入的數據被AI開發者用於自家模型的學習,則無法說委託者完全控制了使用目的,這種情況很可能被視為第三者提供。在這種情況下,必須事先獲得本人同意。然而,實務上,從不特定多數的個人獲得AI輸入相關的個別同意極為困難。
另一方面,如果在合約中保證輸入數據不會被用於學習(例如API使用或某些企業向的付費方案),則較容易將其整理為法律上的「委託」框架。然而,即便如此,根據日本個人信息保護法第25條,企業仍有義務對委託對象(AI事業者)進行必要且適當的監督。
提供給日本以外第三方的相關論點
在使用由OpenAI(美國)或DeepSeek(中國)等外國企業提供的AI服務時,將適用日本法律第28條中關於「提供給日本以外第三方的限制」。當向被認為不具備與日本同等保護水準的國家中的企業提供數據時,必須在向本人提供當地法律制度相關資訊後,取得個別同意等措施。
特別是在令和7年(2025年)2月,日本個人信息保護委員會與數位廳的注意喚起中,對於數據儲存在中國的伺服器上的服務,基於當地的「國家情報法」等法律,表達了可能受到政府審查或數據徵收的地緣政治風險所引發的隱私侵害的擔憂。將個人數據輸入到存在此類風險的服務中,可能被認為會不當侵害本人的權利利益,因此必須謹慎考量。
系統措施以最小化風險
為了使AI社內規定成為有效的措施,不僅僅依賴於員工的個人意識,還需要構建系統性的「護欄」。結合最新的AI技術與規範,可以大幅提升法律上的安全性。
透過選擇退出設定與API使用來確保安全
最基本的對策是徹底執行「選擇退出」,以確保輸入數據不被用於AI的學習。在ChatGPT等個人服務中,可以通過設置畫面關閉歷史功能來拒絕學習,但從組織控制的觀點來看,這不應該僅依賴於員工個人的操作。
更為可靠的方法是通過API(應用程式介面)進行使用。主要的AI供應商在其規約中明確表示,通過API傳送的數據原則上不會用於模型學習。通過使用API構建獨特的內部前端,可以系統性地阻止輸入數據被二次用於學習。
透過企業專用付費方案提供的契約保障
當整個組織導入AI時,考慮採用如ChatGPT Enterprise或Azure OpenAI Service等企業專用的付費方案是值得的。這些服務適用於與個人方案不同的嚴格企業規約,並在契約中保證數據權利歸屬於用戶企業、不用於模型學習,以及數據傳輸與儲存時的加密(AES-256、TLS 1.2+等)。
此外,選擇通過SOC 2 Type 2等獨立審核的服務,能夠作為顯示安全管理體制達到一定水準的客觀資料,對於解釋供應商選擇的合理性及風險管理的適切性非常有用。然而,僅憑這些認證的有無並不能立即被評價為已盡善管注意義務,還需要根據個別的使用方式和風險進行額外的考量。
遮蔽處理與數據匿名化
作為技術運用,導入在輸入前自動將提示中包含的個人姓名或特定項目名稱替換為遮蔽字或符號的「遮蔽處理」是有效的。即使平台方發生意外洩漏,也能防止該信息與特定個人或企業機密聯繫起來,從而將實際損害降至最低。
防止資訊洩漏的AI日本內部規定要點
有效的內部規定不應僅僅是「禁止事項的羅列」。現場的員工需要能夠立即判斷在何種範圍內可以使用AI,並且能夠避免法律風險,這需要具體的行動指引。
輸入禁止資訊的「重新定義」與分層化
避免使用「機密資訊輸入禁止」這種模糊的表達,應根據資訊的性質進行分層化定義。
- 等級1(絕對禁止資訊):基於NDA從交易夥伴處獲得的未公開資訊、自家未發表的決算、獨有的演算法、客戶的姓名、地址等個人資料。
- 等級2(條件允許資訊):匿名化的會議記錄、已公開技術資訊的整理、標準化商業郵件的校對。
- 等級3(推薦使用範圍):程式語言的語法檢查、一般概念的解釋、創意發想。
通過這樣具體的案例定義,可以降低員工的判斷成本,同時抑制無意識的違規行為。
例外批准流程與使用預期報告(Context Report)
一律禁止會導致影子AI的出現,因此在特定業務中需要將高級資訊(例如特定契約的審核等)輸入AI時,應設置「例外批准流程」。此時,不僅僅是「想使用」的申請,而是要求提交包含以下三個要素的「使用預期報告(Context Report)」的流程。
- Tool(工具):使用哪種AI模型,並以何種設定(選擇退出、API使用等)使用。
- Input(輸入):輸入何種數據(是否包含個人資訊等)。
- Output(輸出):生成物將以何種目的(僅限內部、提交給客戶、網路公開等)使用。
通過法務或IT部門事先審查這些報告,可以組織性地控制風險與效益的平衡。
關於個人資訊處理的特別規則
規定中應設置與個人資訊保護法保持一致的特別規則。原則上禁止「在可識別本人狀態下輸入個人數據」,在業務上不可或缺的情況下,應事先明確基於法律的適當同意取得或隱私政策的補充流程。
此外,在使用於招聘選拔等的分析時,應理解AI判斷的限制(幻覺風險),最終決定必須由人類進行,應納入「Human-in-the-loop」的原則。
監控與事後應對機制

僅僅制定規範並進行宣傳是不足以作為治理的。在日本,必須持續確認既定規則是否被遵守,並在規範中納入應對突發事件的體制。
使用狀況的記錄與審核權限
公司應明確規定擁有記錄並定期審核通過內部網絡進行的AI使用日誌的權限。保存日誌可作為「預防性威懾力」,以便及早發現不當使用(例如過度輸入個人信息)。此外,若發生事故,這些日誌將成為數位鑑識(證據保全)的基礎,以準確掌握何時、誰、以何種方式輸入了哪些信息。
事件發生時的初步應對
在懷疑信息洩漏的事件發生時,應事先規定報告路徑和應對步驟。由於通過AI輸入導致的洩漏不同於實體遺失,信息擴散極難阻止。因此,應在事件發生後立即考慮向AI業者請求刪除,並同時組織緊急應對團隊,以履行對受影響的交易夥伴和個人信息保護委員會的法律報告義務(如日本法律第26條等)。
持續更新(敏捷治理)
生成AI的技術進步及其周圍的國內外法規正在以空前的速度變化。在日本,令和6年(2024年)制定的「AI業者指導方針」以及預計在令和7年(2025年)至令和8年(2026年)進行的個人信息保護法修訂等,規則本身不斷更新。
因此,內部規範不應視為「一經制定即告完成」,而應每半年至一年進行定期檢討,以便迅速應對技術特性和新的地緣政治風險(如DeepSeek等新興服務的崛起),這就是所謂的「敏捷治理」的實踐。
總結:正確地面對恐懼,全力以赴推動「AI公司內部規定」
生成AI所帶來的破壞性便利性,已不再是單一企業的選擇,而是生存所必需的競爭力來源。然而,本篇文章中詳細描述的「資訊洩漏」風險,可能會在一夜之間使企業多年努力建立的營業秘密變得毫無價值,失去法律保護,並喪失社會信任,這是一個真實存在的威脅。然而,過度恐懼風險而全面禁止AI的使用,將會使組織停滯不前,並助長在暗地裡無秩序的使用,這無疑是另一個巨大的風險。
真正需要的是,基於法律知識建立堅固的「護欄」,以便員工能夠毫不猶豫地、安全地、最大限度地發揮AI的力量。明確的公司內部規定不僅僅是規範的文件,而是組織對自身資訊價值的定義及其保護的決心表達,進而成為對交易夥伴及社會的「信任」基礎。當組織正確理解AI的機制和法律風險,並將技術對策與內部規定作為車之兩輪共同運作時,生成AI這一強大的武器才能真正成為推動業務飛躍的原動力。
本事務所提供的對策指南
Monolith法律事務所是一家在IT領域,特別是互聯網和法律方面擁有豐富經驗的法律事務所。在日本,AI業務伴隨著許多法律風險,因此需要熟悉AI相關法律問題的律師提供支持是不可或缺的。本事務所由精通AI的律師和工程師等組成的團隊,針對使用ChatGPT等技術的AI業務,提供合約書製作、商業模式合法性檢討、智慧財產權保護、隱私應對、AI內部規範整備等高階法律支持。詳細內容請參閱下列文章。
Category: IT




















