AI国家戦略が本格始動、人工知能基本計画とAIガバナンス指針のポイント

生成AIをはじめとする人工知能(AI)技術は、自律的に業務を遂行するAIエージェントや、現実空間のロボットを制御するフィジカルAIなどへと発展し、急速に活用領域を広げています。AIはもはや単なる利便性向上のツールにとどまらず、社会や産業の基盤技術として位置づけられつつあります。
こうした状況を背景に、政府の人工知能戦略本部は、令和7年12月、「人工知能基本計画」および「人工知能関連技術の研究開発及び活用の適正性確保に関する指針」を公表しました。
これらは、令和7年(2025年)9月1日に全面施行された「人工知能関連技術の研究開発及び活用の推進に関する法律」(以下「AI法」といいます)に基づき、日本が世界で最もAIを開発・活用しやすい国となることを目指して策定された国家戦略です。
本記事では、日本が目指すべきAI国家戦略の指針となるこれら二つの骨子について、その核心となる要点を整理し解説します。
この記事の目次
人工知能基本計画制定の背景
今回の骨子が策定された背景には、日本経済が抱える構造的な課題と、AIを成長の起点とする国家戦略があります。
日本経済の停滞とAI戦略
現在の日本の状況を見ると、AIの利活用や投資の面で主要国に遅れが目立っています。特に、経済規模に比べてAI関連投資が少ないことは、将来の産業競争力にとって大きな懸念材料とされています。
その一方で、日本社会は人口減少、国内投資の不足、賃金の停滞といった長年の構造的課題を抱えています。
政府は、こうした課題を打開する鍵がAIイノベーションにあると位置づけています。AIによって業務効率化を進めるだけでなく、新たな事業の創出や社会課題の解決を通じて、日本経済を再び成長軌道に乗せることが本計画の狙いです。
特に、日本が強みを持つ製造、医療、研究分野の質の高いデータを活用することで、信頼性の高いAIを生み出す好機であると期待されています。
国際的なルール形成とリスクへの懸念
もう一つの背景として、国際的なAIガバナンスへの対応があります。日本は、2023年のG7広島サミットで創設された「広島AIプロセス」を主導してきました。これは、高度なAIシステムに関する国際的な指針や行動規範を策定することで、安全で信頼できるAI(Safe, Secure, and Trustworthy AI)の実現を目指す世界初の包括的な枠組みです。
日本はこのプロセスを通じて国際的なルール形成を牽引してきましたが、国内においても具体的な対策が急務となっています。AIには、ハルシネーション(事実とは異なるもっともらしい出力)といった技術的リスクに加え、偏見や差別の助長、犯罪への利用、プライバシー侵害、偽情報の拡散など、さまざまな社会的リスクが指摘されています。
こうしたリスクに対する国民の不安を軽減し、AIの社会的受容性を高めるためには、透明性、公平性、安全性を確保するための明確なルールが不可欠です。AI法に基づく指針の策定は、広島AIプロセスの理念とも呼応するものであり、事業者の自主的な取組を促しつつ、リスクを適切に管理することで、イノベーションと安全性の両立を図ることを目的としています。
人工知能基本計画とAIの適正性確保とは

今回公表された人工知能基本計画骨子では、AIの利活用促進と開発力の強化を軸に、政府が進める主要な政策の方向性が示されています。
人工知能基本計画の3原則と4つの方針
AI法に基づき策定される基本計画は、「3原則」と「4つの方針」を柱としています。
政府は「イノベーション促進とリスク対応の両立」「アジャイルな対応」「内外一体での政策推進」を原則(3原則)として掲げています。これに基づき、以下の4つの施策が示されています。
- AI利活用の加速的推進「AIを使う」:政府自らが先導的にAIを導入し、中小企業や地域産業への普及を支援します。
- AI開発力の戦略的強化「AIを創る」:計算資源や半導体、データセンターといったインフラ整備を加速し、日本独自のAIエコシステムを構築します。
- AIガバナンスの主導「AIの信頼性を高める」:国際的なガバナンス構築を主導しつつ、国内ではAIセーフティ・インスティテュート(AISI)を強化して技術的評価を行います。
- AI社会に向けた継続的変革「AIと協働する」:AI人材の育成やリスキリングを推進し、人が価値を発揮する「人間力」向上のための環境を整えます。
AIの適正性確保に関する指針のポイント
「人工知能関連技術の研究開発及び活用の適正性確保に関する指針」は、全ての主体に共通する適正性確保の考え方と、研究開発機関および活用事業者が取り組むべき事項を示しています。
指針では、以下の項目を基本的な考慮要素として挙げています。
- 人間中心:人間の尊厳を尊重し、最終的な判断は人間が行うこと
- 公平性:不当な偏見や差別を生じさせないこと
- 安全性:生命・身体・財産に危害を及ぼさないこと
- 透明性:情報の開示や検証可能性を確保すること
- アカウンタビリティ:社会的影響を踏まえ、責任を果たす仕組みを構築すること
- セキュリティ・プライバシー:不正操作のリスク低減と個人情報の適切な保護
具体的なアプローチとして、「リスクベースでのアプローチ」(影響度に応じた対策)、「ステークホルダーの積極的な関与」、「一気通貫でのAIガバナンスの構築」、「アジャイルな対応」(PDCAサイクルの迅速な回転)の4点が強調されています。
AI国家戦略が企業に求める対応

企業、特にAI法第7条に規定される「活用事業者」や同法第6条に規定される「研究開発機関」には、AIのライフサイクル全体を通じた責任ある対応が求められます。
俯瞰的なAIガバナンスの構築
企業は、経営層が深く関与する形での組織的な管理体制を整備しなければなりません。
これには、リスクの特定・評価・対処プロセスの確立、役職員への教育・研修の実施、情報の適切な開示が含まれます。 既存のITシステムガバナンスを活用しつつ、AI特有の変動するリスクに対応できるアジャイルな体制への転換が必要です。
ステークホルダーとの信頼関係構築
透明性の確保は最優先事項です。学習データの出所やAI出力の根拠を、合理的な範囲で説明できるように努める必要があります。また、利用者に対しては、AIの仕組みや限界、禁止事項といった適正な利用を可能にするための情報を積極的に提供することが求められます。
技術的な安全対策とリスク抑制
AIを悪用したサイバー攻撃や詐欺への対策、ハルシネーションの抑制に加え、特に偽情報の拡散防止が重要視されています。企業は、最新の知見を駆使して不適切な出力を抑制し、必要に応じて電子透かしや来歴管理といったAI生成物であることを判別できる技術を実装する努力義務を負います。
事業継続性とステークホルダーへの配慮
AIを用いたシステムに障害が生じた場合に備え、早期復旧のための事業継続計画(BCP)をあらかじめ策定しておくことが求められます。
また、イノベーションの基盤であるデータの重要性を鑑み、知的財産権を持つデータ保有者との継続的なコミュニケーションを図り、利益還元のエコシステム構築に協力する姿勢も期待されています。
まとめ:AI関連法については専門家に相談を
今回の人工知能基本計画等の公表は、日本がAI分野で国際的な競争力を高めていくための国家戦略の方向性が示されたものといえます。
企業にとって重要なのは、これらの指針を単なる規制や禁止事項として捉えるのではなく、信頼性の高いAI活用を実現するための基盤として理解することです。指針に基づいたガバナンス体制を整備することは、法的リスクの低減だけでなく、顧客や社会からの信頼確保にもつながります。
こうした指針への適切な対応を進めるにあたっては、法律だけでなくITビジネスにも精通した専門家の助言を活用することが重要になります。
当事務所による対策のご案内
モノリス法律事務所は、IT、特にインターネットと法律の両面に豊富な経験を有する法律事務所です。AIビジネスには多くの法的リスクが伴い、AIに関する法的問題に精通した弁護士のサポートが必要不可欠です。当事務所は、AIに精通した弁護士とエンジニア等のチームで、ChatGPT等を活用したAIビジネスに対して、契約書作成、ビジネスモデルの適法性検討、知的財産権の保護、プライバシー対応、AI社内規定整備など、高度な法的サポートを提供しています。下記記事にて詳細を記載しております。
カテゴリー: IT・ベンチャーの企業法務
タグ: AI関連

































