経済産業省「AI事業者ガイドライン」の内容を弁護士が解説
2024年に経済産業省がとりまとめた「AI事業者ガイドライン(第1.0版)」は、AI技術の急速な進展により、その社会実装におけるリスク管理や倫理的な課題への対応が、企業や社会全体にとって重要なテーマとなっていることを背景に、AIの適切な活用と社会的信頼の向上を目的とし、企業が取り組むべきAIガバナンスの方向性を示す重要な指針として策定されたものです。本ガイドラインは、法的拘束力を伴わないソフトローとして、主体ごとの役割を明確化するとともに、リスクベースアプローチや国際的な制度との整合性を重視した内容となっています。
さらに、このガイドラインの特徴として、固定的なルールではなく、環境の変化に応じて柔軟に対応する「アジャイルガバナンス」の考え方が採用されている点が挙げられます。企業がAIの開発・提供・利用において直面する課題に対し、環境・リスク分析、ゴール設定、運用、評価のサイクルを継続的に回すことで、リスクの軽減と技術の持続的発展を実現する仕組みです。また、複数主体間の連携やデータの適切な流通、経営層の積極的な関与といった要素が、実効性あるガバナンスを支える柱として強調されています。
この記事の目次
経済産業省「AI事業者ガイドライン」の公表とその背景
2024年4月、経済産業省は「AI事業者ガイドライン(第1.0版)」を策定し公表しました。本ガイドラインは、AI技術の発展と社会実装を支援するために、法的拘束力を伴わない指針として位置付けられています。そのため、法律のような義務を課すものではなく、基本理念や原則、指針を示し、事業者が実践する際の参考として活用できるものです。構成としては、理念や原則を記載した本編と、具体的な実践方法を示した別添から成ります。
「人間中心のAI社会原則」を基盤とした考え方
「AI事業者ガイドライン」は、2019年3月に示された「人間中心のAI社会原則」を基盤としています。この原則では、「AIに人間が使われるのではなく、人間がAIを使う」という基本的な理念が掲げられています。具体的には、AIは人間の管理下で、人間の能力を拡張する手段として活用されるべきであり、過度に依存することで人間が操られるような状態を避けなければならないとされています。
さらに、AIは人々の労働の代替手段にとどまらず、高度で便利な道具として、人間の創造性や能力を拡大する役割を果たすべきとされています。そのため、AIを利用する際には、利用者自身がどのように活用するかを判断し、責任を持って決定することが求められます。
過去のガイドラインの統合と見直し
本ガイドラインは、従前の3つの主要なガイドラインを統合し、見直しを行った上で策定されました。
- 「AI開発ガイドライン」(2017年):AI開発における基本原則や留意点を解説。
- 「AI利活用ガイドライン」(2019年):AIの利活用における基本原則とその解説を提示。
- 「AI原則実践のためのガバナンス・ガイドライン」(2021年):社会実装を促進するための具体的な行動目標や実践例を提示。
これらは、AI事業者が守るべき指針として活用されてきました。今回の「AI事業者ガイドライン」では、これらを統合し、諸外国の動向や新技術の台頭も考慮した内容となっています。
策定過程と公表に至る経緯
「AI事業者ガイドライン案」は、2023年12月21日に開催された内閣府AI戦略会議(第7回)で初めて提出されました。その後、2024年1月19日に総務省・経済産業省名義で正式に公表され、翌1月20日から2月19日にかけてパブリックコメントが実施されました。この意見募集手続を経て、同年4月19日に「AI事業者ガイドライン(第1.0版)」が完成し、公表されました。
ガイドラインの意義
AI規制法がいわゆるハードローとして制定されたEUとは事なり、日本の「AI事業者ガイドライン」は、いわゆるソフトローであり、法的拘束力を持たず、AI事業者が実践すべき基本理念や行動の指針を示しています。AI技術の発展が進む中で、社会における適切な活用を促進し、信頼性のあるAI社会を構築するための重要な一歩となる内容です。事業者はこのガイドラインを参考に、自社のAI開発や利活用における方針を整備することが求められます。
「AI事業者ガイドライン」の基本的な考え方
「AI事業者ガイドライン」は、AI技術の発展と適切な社会実装を促進するために、以下の3つの基本的な考え方を軸に構成されています。
事業者の自主的な取組の支援
AI事業者ガイドラインは、リスクの大きさや蓋然性に応じて対策を変える「リスクベースアプローチ」に基づき、企業が取り組むべき対策の方向性を提示しています。これは、リスクの内容や程度に応じた柔軟な対策を推奨する考え方であり、ユースケースやAIモデルの性質によってリスクが大きく異なることを前提としています。特に、ユースケースごとのリスクは企業規模とは必ずしも一致しないため、そのリスクの性質を慎重に評価する必要があります。
ハイリスクの類型については法規制を検討する一方、ローリスクの類型については民間認証や自己宣言に委ねるなど、柔軟な規制手法の選択が重要です。このようなアプローチにより、過度な規制を回避しつつ、効果的なリスク管理が可能となります。
国際的な議論との協調
AI技術の市場は国境を超えて広がっており、日本企業が国際的な競争力を維持するためには、海外の制度や原則との整合性を確保することが重要です。本ガイドラインの基本理念や原則は、OECDのAI原則など国際的な指針を踏まえたものとなっており、別添では諸外国のガイドラインとの対応関係も明記されています。
基盤モデル含め、AIモデル・サービスは国境を超えた市場であるため、日本企業がグローバルに活躍するためにも、海外制度との相互運用性の確保は重要であると言えます。また、仮に何かしらの規律を設ける際には、日本企業だけが重い負担を負って競争力を削がれるといった事態は避け、海外企業にも実効的な制度とし、内外の企業のレベルプレイングフィールドを確保すべきでしょう。
読み手にとっての分かりやすさ
AI事業者ガイドラインは、読み手にとっての理解しやすさを重視しています。特に、「AI開発者」「AI提供者」「AI利用者」のように主体ごとに考慮すべきリスクや対応方針を区別して記載されている点が特徴です。
「マルチステークホルダー」と「Living Document」
また、これらに加えて、「マルチステークホルダー」「Living Document」という考え方が採用されていることも、AI事業者ガイドラインの特徴です。すなわち、教育・研究機関、一般消費者を含む市民社会、民間企業等で構成されるマルチステークホルダーで検討を重ねることで、実効性・正当性を重視したものとして策定されており、そして、AIガバナンスの計測的な改善に向け、アジャイルガバナンスの思想を参考にしながら、「Living Document」として、適宜更新されることが予定されています。
「AI事業者ガイドライン」における主体の区分と適用範囲
「AI事業者ガイドライン」の重要な特徴の一つとして、適用対象となる主体を属性ごとに区別し、それぞれが取り組むべき内容を明確に示している点が挙げられます。このガイドラインでは、「AI開発者」「AI提供者」「AI利用者」が適用対象とされる一方、「業務外利用者」や「データ提供者」は適用対象外とされています。
AI開発者、提供者、利用者の役割と責務
AI開発者は、AIのデータ前処理や学習、開発プロセスを担当する主体を指します。具体的には、収集された学習用データの前処理、AIモデルの生成、トライアルを通じた有用性の検証などを行う者を含みます。これらのプロセスは、AIの性能と信頼性を確保する基盤となるため、開発者にはデータの適切な取り扱いや高品質なモデル構築が求められます。
AI提供者は、AIシステムの実装および提供を担う主体です。AIモデルを既存または新設のシステムに組み込み、他のシステムと連携させた後、利用者に提供するプロセスを担います。また、AIシステムの適正利用を促進するための注意喚起や運用支援を行うケースや、AIサービスを直接運用して提供する場合も含まれます。これにより、利用者がAIシステムを安全かつ効果的に活用できるよう支援します。
AI利用者は、AIシステムやサービスを利用する主体を指します。利用者は、提供者から注意喚起された内容を参考に、AIシステムを適正に運用し、その便益を享受します。同時に、AIシステムの設計意図に沿った利用を継続する責任を負います。このように、利用者の行動は、AIシステムの社会的受容性や信頼性にも影響を与えます。
適用対象外の主体
これらに対して、「データ提供者」や「業務外利用者」は、ガイドラインの適用対象外とされています。データ提供者は、AIの学習用データを提供する役割を担い、特定の法人や個人に限らず、センサやシステムを通じてデータを供給する場合も含まれます。一方、業務外利用者とは、AIシステムやサービスの恩恵を事業活動以外で享受する主体を指し、場合によってはAIによる判断の影響を受けることもあります。
例えば、求職者データを活用したAIサービスでは、AIモデルを開発する「AI開発者」、サービスを提供する「AI提供者」、そのサービスを利用する企業が「AI利用者」となります。一方、過去の求職者は「データ提供者」、サービスによる判断を受ける応募者は「業務外利用者」に該当します。
AI事業者ガイドライン」における共通の指針
「AI事業者ガイドライン」では、主体の属性にかかわらず、すべての主体が取り組むべき10項目の共通指針を提示しています。この指針は、各主体が自ら取り組むべき事項と、社会との連携の中で取り組むべき事項に分類され、AIガバナンスのフレームワークとして位置づけられています。
主体が自ら取り組むべき7項目
- 人間中心:AIを利用する際は、個人の尊厳を尊重し、アウトプットの正確性や限界を理解しつつ、不適切な目的で使用しないことが求められます。また、フィルターバブルのように情報や価値観を偏らせ、選択肢を制限するAI活用への注意が必要です。
- 安全性:リスク分析を実施し、適切な対策を講じることで、AIシステムが本来の利用目的を逸脱しないよう管理することが求められます。データの正確性や透明性の確保、AIモデルの適切な更新も重要です。
- 公平性:AIの出力が偏見や差別を助長しないよう努める必要があります。AIの判断に人間の判断を介在させることや、潜在的なバイアスへの配慮が求められます。
- プライバシー保護:国際的な個人データ保護の基準を参照し、プライバシーに関する国際的な指針や規範を遵守することが求められます。個人データの越境移転における相互運用性の確保も重要です。
- セキュリティ確保:AIシステムの機密性、完全性、可用性を維持し、技術水準に基づく合理的な対策を講じることが必要です。外部攻撃への備えも含め、最新のリスクに対応することが求められます。
- 透明性:AIシステムの学習プロセスや推論過程を検証可能にし、必要に応じて情報を説明することが求められます。ただし、アルゴリズムやソースコードの開示は求められず、プライバシーや営業秘密は尊重されます。
- アカウンタビリティ:AIの出力に誤りがある場合、指摘を受け入れ、客観的なモニタリングを実施することが必要です。ステークホルダーへの対応方針を策定し、進捗状況を定期的に報告することが期待されます。
社会との連携の中で取り組むべき3項目
- 教育・リテラシー:AIに関わる者全員が十分なAIリテラシーを身につけるための教育を行い、ステークホルダーにもAIの特性やリスクに関する啓発を進めることが求められます。
- 公正競争確保:AIを活用した新たなビジネスやサービスが公正に競争できる環境を整備し、持続可能な経済成長や社会課題の解決を目指すことが求められます。
- イノベーション:国際的な多様性や産学官連携を促進し、AIシステム間の相互接続性を確保します。標準仕様が存在する場合には、それに準拠することが推奨されます。
「アジャイルガバナンス」の重要性と実践方法
「AI事業者ガイドライン」は、AIガバナンスの構築において画一的なアプローチを取るのではなく、各企業の規模や事業内容に応じた柔軟な対応が必要であると強調しています。他社の取り組みをそのまま模倣するのではなく、経営層から現場までが試行錯誤を重ね、自社に適したルールを設計・運用することが求められます。このプロセスにおいて鍵となるのが「アジャイルガバナンス」の実践です。
アジャイルガバナンスとは
アジャイルガバナンスとは、事前に固定的なルールを設定するのではなく、外部環境やリスクの変化に柔軟に対応するために、次のようなサイクルを継続的に回すアプローチを指します。
- 環境・リスク分析:外部環境や技術的リスクを的確に把握する。
- ゴール設定:現状に応じた適切な目標を設定する。
- システムデザイン:目的達成に向けた効果的なAIシステムを設計する。
- 運用:設計されたシステムを実際に運用し、成果を確認する。
- 評価:運用結果を定期的に評価し、必要に応じて調整を行う。
このようなサイクルを回し続けることで、変化の激しい技術環境や市場動向に迅速かつ効果的に対応することが可能になります。
アジャイルガバナンスを支える3つの柱
「アジャイルガバナンス」は、AI技術の進展とともに進化するべきガバナンスの在り方を示しています。企業は、自社のビジネスモデルや事業環境に合わせて柔軟な対応を行うとともに、経営層から現場まで一体となって取り組むことが求められます。また、主体間の連携や国際的なリスク管理を確立することで、AIガバナンスをより実効性のあるものとすることが可能です。その際には、以下のような要素が重要と言えるでしょう。
- 複数主体間の連携確保:AI技術はバリューチェーンやリスクチェーンといった観点で複数の主体が関与するため、それぞれの役割や責任を明確にし、連携を確保することが重要です。これにより、AIシステムの開発・提供・利用の各段階でリスクを適切に管理できます。
- 適切なデータ流通の確保:AIガバナンスを実施する上で、データの適切な流通は欠かせません。特に複数国にまたがるデータ利用を想定する場合、各国の規制やリスク管理の要件を考慮しながら、データの透明性と安全性を維持する必要があります。
- 経営層のコミットメント:効果的なAIガバナンスを実現するためには、経営層の積極的な関与が求められます。具体的には、ガバナンス戦略の策定、組織全体の体制整備、そして企業文化としての浸透を図ることが不可欠です。経営層のコミットメントは、組織全体が同じ目標に向かうための原動力となります。
当事務所による対策のご案内
モノリス法律事務所は、IT、特にインターネットと法律の両面に豊富な経験を有する法律事務所です。
AIビジネスには多くの法的リスクが伴い、AIに関する法的問題に精通した弁護士のサポートが必要不可欠です。当事務所は、AIに精通した弁護士とエンジニア等のチームで、ChatGPTを含むAIビジネスに対して、契約書作成、ビジネスモデルの適法性検討、知的財産権の保護、プライバシー対応など、高度な法的サポートを提供しています。下記記事にて詳細を記載しております。
モノリス法律事務所の取扱分野:AI(ChatGPT等)法務
カテゴリー: IT・ベンチャーの企業法務