MONOLITH 律師事務所+81-3-6262-3248平日 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

AI國家戰略正式啟動,人工智慧基本計畫與AI治理指引的要點

IT

AI國家戰略正式啟動,人工智慧基本計畫與AI治理指引的要點

以生成AI為首的人工智慧(AI)技術,正迅速發展成能夠自律執行業務的AI代理,以及控制現實空間機器人的實體AI等,並迅速擴大其應用領域。AI不再僅僅是提升便利性的工具,而是逐漸被定位為社會和產業的基礎技術。

在這樣的背景下,日本政府的人工智慧戰略本部於令和7年(2025年)12月,公佈了「人工智慧基本計畫」以及「人工智慧相關技術的研究開發及應用的適正性確保指針」。

這些計畫是基於令和7年(2025年)9月1日全面施行的「人工智慧相關技術的研究開發及應用推進法律」(以下稱為「AI法」),旨在使日本成為全球最容易開發和應用AI的國家而制定的國家戰略。

本文章將整理並解釋這兩個作為日本應追求的AI國家戰略指針的核心要點。

制定人工智慧基本計畫的背景

此次制定的骨子背景在於日本經濟所面臨的結構性課題,以及將AI作為成長起點的國家戰略。

日本經濟的停滯與AI戰略

從目前日本的情況來看,在AI的利用和投資方面,與主要國家相比顯得落後。特別是,與經濟規模相比,AI相關投資較少,這被視為未來產業競爭力的一大隱憂。

另一方面,日本社會長期以來面臨人口減少、國內投資不足、工資停滯等結構性課題。

日本政府認為,突破這些課題的關鍵在於AI創新。本計畫的目標不僅是透過AI提高業務效率,還希望通過創造新事業和解決社會問題,使日本經濟重新步入成長軌道。

特別是,利用日本在製造、醫療、研究領域的高質量數據,預期能夠創造出高可靠性的AI,這是一個絕佳的機會。

國際規則的形成與風險的憂慮

另一個背景是對國際AI治理的應對。日本在2023年(令和5年)的G7廣島峰會上主導創建了「廣島AI進程」。這是世界上首個旨在通過制定高級AI系統的國際指導方針和行為規範,實現安全、可靠的AI(Safe, Secure, and Trustworthy AI)的綜合框架。

日本通過這一進程引領了國際規則的形成,但在國內也急需具體的對策。AI除了技術性風險如幻覺(與事實不符的似是而非的輸出)外,還有助長偏見和歧視、犯罪利用、隱私侵害、假信息傳播等多種社會風險被指出。

為了減輕國民對這些風險的憂慮,提高AI的社會接受度,確保透明性、公平性和安全性的明確規則是不可或缺的。根據AI法制定的指導方針,與廣島AI進程的理念相呼應,旨在促進企業的自主努力,同時適當管理風險,以實現創新與安全性的平衡。

日本人工智慧基本計畫與AI的適正性確保

骨子の内容

在此次公佈的日本人工智慧基本計畫骨子中,政府以促進AI的利用與開發能力的強化為核心,展示了主要政策的方向性。

人工智慧基本計畫的3原則與4個方針

根據日本AI法制定的基本計畫,以「3原則」與「4個方針」為支柱。
政府提出「促進創新與風險應對的平衡」、「敏捷的應對」、「內外一體的政策推進」作為原則(3原則)。基於此,以下4個施策被提出。

  1. 加速推進AI的利用「使用AI」:政府將率先導入AI,並支援中小企業及地方產業的普及。
  2. 戰略性強化AI開發能力「創造AI」:加速計算資源、半導體、數據中心等基礎設施的建設,構建日本獨特的AI生態系統。
  3. 主導AI治理「提高AI的信賴性」:在國際上主導治理結構的建設,同時在國內強化AI安全研究所(AISI)以進行技術評估。
  4. 面向AI社會的持續變革「與AI協作」:推進AI人才的培養與再技能化,營造提升人類價值的「人力」環境。

確保AI適正性的指針要點

「關於人工智慧相關技術的研究開發及利用的適正性確保指針」展示了所有主體共通的適正性確保理念,以及研究開發機構與利用事業者應採取的事項。

指針中列舉了以下項目作為基本考量要素。

  • 以人為中心:尊重人類尊嚴,最終決策由人類進行
  • 公平性:避免產生不當的偏見或歧視
  • 安全性:不對生命、身體、財產造成危害
  • 透明性:確保資訊的公開與可驗證性
  • 責任制:考量社會影響,構建履行責任的機制
  • 安全與隱私:降低不正操作的風險,適當保護個人資訊

作為具體的方針,強調「基於風險的方針」(根據影響度採取對策)、「積極的利害關係者參與」、「貫徹始終的AI治理結構」、「敏捷的應對」(迅速運行PDCA循環)等四點。

日本AI國家戰略對企業的要求

企業作為應對的要求

企業,特別是根據日本AI法第7條規定的「活用事業者」以及同法第6條規定的「研究開發機構」,需要在AI的整個生命週期中負責任地應對。

構建全面的AI治理

企業必須建立由管理層深度參與的組織性管理體系。

這包括風險的識別、評估和應對流程的建立,對職員進行教育和培訓,以及適當的信息披露。在利用現有的IT系統治理的同時,需要轉變為能夠應對AI特有的變動風險的敏捷體系。

與利益相關者建立信任關係

確保透明性是最優先事項。需要在合理範圍內努力解釋學習數據的來源和AI輸出的依據。此外,對於使用者,應積極提供有關AI機制、限制以及禁止事項的信息,以促進正確使用。

技術安全措施與風險抑制

對於利用AI進行的網絡攻擊和詐騙的對策,以及幻覺的抑制,特別是防止虛假信息的傳播被視為重要。企業有責任利用最新的知識抑制不當輸出,並在必要時實施如電子水印或來歷管理等技術,以辨識AI生成物。

業務持續性與對利益相關者的考量

為了應對AI系統發生故障的情況,企業需要事先制定業務持續計劃(BCP)以便於早期恢復。

此外,考慮到作為創新基礎的數據的重要性,企業應與擁有知識產權的數據持有者保持持續溝通,並協助構建利益回饋的生態系統。

總結:關於日本AI相關法律,請諮詢專家

此次公佈的人工智慧基本計畫等,顯示了日本在AI領域提升國際競爭力的國家戰略方向。

對企業而言,重要的是不要僅將這些指針視為單純的規範或禁止事項,而應理解為實現高信賴度AI應用的基礎。根據指針建立治理體系,不僅能降低法律風險,還能確保來自顧客和社會的信任。

在推進對這些指針的適當應對時,利用精通法律及IT業務的專家建議是非常重要的。

本事務所提供的對策指南

Monolith法律事務所是一家在IT領域,特別是互聯網和法律方面擁有豐富經驗的法律事務所。在日本,AI業務伴隨著許多法律風險,因此需要熟悉AI相關法律問題的律師提供支持是不可或缺的。本事務所由精通AI的律師和工程師等組成的團隊,針對使用ChatGPT等技術的AI業務,提供契約書製作、商業模式合法性檢討、智慧財產權保護、隱私應對、AI內部規範整備等高級法律支持。詳細內容請參閱下列文章。

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

返回頂部