AI國家戰略正式啟動,人工智慧基本計畫與AI治理指引的要點

以生成AI為首的人工智慧(AI)技術,正迅速發展成能夠自律執行業務的AI代理,以及控制現實空間機器人的實體AI等,並迅速擴大其應用領域。AI不再僅僅是提升便利性的工具,而是逐漸被定位為社會和產業的基礎技術。
在這樣的背景下,日本政府的人工智慧戰略本部於令和7年(2025年)12月,公佈了「人工智慧基本計畫」以及「人工智慧相關技術的研究開發及應用的適正性確保指針」。
這些計畫是基於令和7年(2025年)9月1日全面施行的「人工智慧相關技術的研究開發及應用推進法律」(以下稱為「AI法」),旨在使日本成為全球最容易開發和應用AI的國家而制定的國家戰略。
本文章將整理並解釋這兩個作為日本應追求的AI國家戰略指針的核心要點。
制定人工智慧基本計畫的背景
此次制定的骨子背景在於日本經濟所面臨的結構性課題,以及將AI作為成長起點的國家戰略。
日本經濟的停滯與AI戰略
從目前日本的情況來看,在AI的利用和投資方面,與主要國家相比顯得落後。特別是,與經濟規模相比,AI相關投資較少,這被視為未來產業競爭力的一大隱憂。
另一方面,日本社會長期以來面臨人口減少、國內投資不足、工資停滯等結構性課題。
日本政府認為,突破這些課題的關鍵在於AI創新。本計畫的目標不僅是透過AI提高業務效率,還希望通過創造新事業和解決社會問題,使日本經濟重新步入成長軌道。
特別是,利用日本在製造、醫療、研究領域的高質量數據,預期能夠創造出高可靠性的AI,這是一個絕佳的機會。
國際規則的形成與風險的憂慮
另一個背景是對國際AI治理的應對。日本在2023年(令和5年)的G7廣島峰會上主導創建了「廣島AI進程」。這是世界上首個旨在通過制定高級AI系統的國際指導方針和行為規範,實現安全、可靠的AI(Safe, Secure, and Trustworthy AI)的綜合框架。
日本通過這一進程引領了國際規則的形成,但在國內也急需具體的對策。AI除了技術性風險如幻覺(與事實不符的似是而非的輸出)外,還有助長偏見和歧視、犯罪利用、隱私侵害、假信息傳播等多種社會風險被指出。
為了減輕國民對這些風險的憂慮,提高AI的社會接受度,確保透明性、公平性和安全性的明確規則是不可或缺的。根據AI法制定的指導方針,與廣島AI進程的理念相呼應,旨在促進企業的自主努力,同時適當管理風險,以實現創新與安全性的平衡。
日本人工智慧基本計畫與AI的適正性確保

在此次公佈的日本人工智慧基本計畫骨子中,政府以促進AI的利用與開發能力的強化為核心,展示了主要政策的方向性。
人工智慧基本計畫的3原則與4個方針
根據日本AI法制定的基本計畫,以「3原則」與「4個方針」為支柱。
政府提出「促進創新與風險應對的平衡」、「敏捷的應對」、「內外一體的政策推進」作為原則(3原則)。基於此,以下4個施策被提出。
- 加速推進AI的利用「使用AI」:政府將率先導入AI,並支援中小企業及地方產業的普及。
- 戰略性強化AI開發能力「創造AI」:加速計算資源、半導體、數據中心等基礎設施的建設,構建日本獨特的AI生態系統。
- 主導AI治理「提高AI的信賴性」:在國際上主導治理結構的建設,同時在國內強化AI安全研究所(AISI)以進行技術評估。
- 面向AI社會的持續變革「與AI協作」:推進AI人才的培養與再技能化,營造提升人類價值的「人力」環境。
確保AI適正性的指針要點
「關於人工智慧相關技術的研究開發及利用的適正性確保指針」展示了所有主體共通的適正性確保理念,以及研究開發機構與利用事業者應採取的事項。
指針中列舉了以下項目作為基本考量要素。
- 以人為中心:尊重人類尊嚴,最終決策由人類進行
- 公平性:避免產生不當的偏見或歧視
- 安全性:不對生命、身體、財產造成危害
- 透明性:確保資訊的公開與可驗證性
- 責任制:考量社會影響,構建履行責任的機制
- 安全與隱私:降低不正操作的風險,適當保護個人資訊
作為具體的方針,強調「基於風險的方針」(根據影響度採取對策)、「積極的利害關係者參與」、「貫徹始終的AI治理結構」、「敏捷的應對」(迅速運行PDCA循環)等四點。
日本AI國家戰略對企業的要求

企業,特別是根據日本AI法第7條規定的「活用事業者」以及同法第6條規定的「研究開發機構」,需要在AI的整個生命週期中負責任地應對。
構建全面的AI治理
企業必須建立由管理層深度參與的組織性管理體系。
這包括風險的識別、評估和應對流程的建立,對職員進行教育和培訓,以及適當的信息披露。在利用現有的IT系統治理的同時,需要轉變為能夠應對AI特有的變動風險的敏捷體系。
與利益相關者建立信任關係
確保透明性是最優先事項。需要在合理範圍內努力解釋學習數據的來源和AI輸出的依據。此外,對於使用者,應積極提供有關AI機制、限制以及禁止事項的信息,以促進正確使用。
技術安全措施與風險抑制
對於利用AI進行的網絡攻擊和詐騙的對策,以及幻覺的抑制,特別是防止虛假信息的傳播被視為重要。企業有責任利用最新的知識抑制不當輸出,並在必要時實施如電子水印或來歷管理等技術,以辨識AI生成物。
業務持續性與對利益相關者的考量
為了應對AI系統發生故障的情況,企業需要事先制定業務持續計劃(BCP)以便於早期恢復。
此外,考慮到作為創新基礎的數據的重要性,企業應與擁有知識產權的數據持有者保持持續溝通,並協助構建利益回饋的生態系統。
總結:關於日本AI相關法律,請諮詢專家
此次公佈的人工智慧基本計畫等,顯示了日本在AI領域提升國際競爭力的國家戰略方向。
對企業而言,重要的是不要僅將這些指針視為單純的規範或禁止事項,而應理解為實現高信賴度AI應用的基礎。根據指針建立治理體系,不僅能降低法律風險,還能確保來自顧客和社會的信任。
在推進對這些指針的適當應對時,利用精通法律及IT業務的專家建議是非常重要的。
本事務所提供的對策指南
Monolith法律事務所是一家在IT領域,特別是互聯網和法律方面擁有豐富經驗的法律事務所。在日本,AI業務伴隨著許多法律風險,因此需要熟悉AI相關法律問題的律師提供支持是不可或缺的。本事務所由精通AI的律師和工程師等組成的團隊,針對使用ChatGPT等技術的AI業務,提供契約書製作、商業模式合法性檢討、智慧財產權保護、隱私應對、AI內部規範整備等高級法律支持。詳細內容請參閱下列文章。
Category: IT




















