弁護士法人 モノリス法律事務所03-6262-3248平日10:00-18:00(年末年始を除く)

法律記事MONOLITH LAW MAGAZINE

IT・ベンチャーの企業法務

AIの嘘と著作権侵害をどう防ぐ?AI生成物を安全に活用するためのAI社内規定とは

AIをビジネスの推進力に変えられるか、あるいはブランド毀損の引き金にしてしまうか。その分岐点は、実効性のある「AI社内規定」の有無にあります。特に著作権侵害やハルシネーションによる誤情報の拡散は、一度発生すれば法的制裁のみならず、蓄積してきた顧客からの信頼を瞬時に失墜させかねません。

この記事では、ビジネスにおいて競争力を維持しながら安全なAI運用を実現するために、今、主導すべきコンプライアンス体制と規定整備の指針を解説します。

AI生成物の「品質」と「権利」に潜む落とし穴

生成AIは、ゼロから1を生み出すための膨大な労力を削減し、クリエイティブな業務から事務作業までを劇的に効率化させる魅力的なツールとして定着しました。しかし、その利便性の裏側には、従来のITツールとは根本的に異なる法的リスクが潜んでいます。

生成AIが作り出すアウトプットは、既存の膨大な学習データに基づいて確率的に導き出されたものであり、その生成プロセスがブラックボックス化しているがゆえに、利用者が知らないうちに他者の権利を侵害したり、もっともらしい嘘を真実として拡散したりする危険性を常に抱えています 。

ビジネスの現場において「AIが作ったものだから」という弁明は通用しません。AIを業務に導入した企業や利用した個人は、その出力結果に対して法的な責任を負う立場にあります。不適切な情報の拡散による名誉毀損や、著作権侵害による損害賠償請求といった事態を回避するためには、現場の裁量に任せるのではなく、組織として明確な「ガードレール」を設けることが求められます。最新の法令やガイドラインに基づき、著作権侵害の加害者・被害者になることを防ぎつつ、誤情報の拡散を阻止するための盤石な社内規定をすみやかに整備する必要があります 。

リスク1:著作権侵害の加害者にならないために

リスク1:著作権侵害の加害者にならないために

生成AIをビジネスで利用する際、最も懸念されるのが他者の著作権を侵害し、法的責任を問われるリスクです。生成AIはその仕組み上、学習データに含まれる既存の著作物の特徴を反映した内容を出力する性質があります。このプロセスを正しく理解し、どのような場合に「侵害」とされるのかを明確に把握することが、防御策の第一歩となります。

生成AIと著作権のメカニズム

生成AIは、入力された指示(プロンプト)に応じて、学習した膨大なデータからパターンを抽出し、新たなコンテンツを生成します。この際、AIは「情報の意味」を理解しているのではなく、統計的な確率に基づいて次の単語や画素を予測しているに過ぎません。そのため、特定のクリエイターの作品や特定の著作物に酷似したものが、利用者の意図に反して生成される可能性があります

文化庁が公表した「AIと著作権に関する考え方」によれば、AI生成物による著作権侵害の判断は、通常の著作物と同様の枠組みで行われます。具体的には、既存の著作物との「類似性」および「依拠性」が認められた場合に侵害が成立します 。

参考:文化庁|AIと著作権について

侵害成立の2大要件:「類似性」と「依拠性」

類似性とは、生成されたアウトプットが、既存の著作物の創作的表現と同一、または本質的な特徴を共有している状態を指します。一方、依拠性とは、既存の著作物を「元にして」作成されたことを意味します。従来の著作権侵害では、作成者がその著作物を見たことがあったかどうかが焦点となりましたが、生成AIの場合は、AIの学習データにその著作物が含まれていたかどうかが重要な判断材料となります 。

特に問題となるのが、利用者が既存の著作物を知らなかったとしても、AIがそれを学習していた場合に依拠性が認められる可能性があるという点です。これを「ブラックボックス問題」と呼びます。文化庁の見解では、学習データの中身が不明であっても、AIがインターネット上の情報を広範に学習していることや、生成物が既存の著作物と顕著に類似している場合には、依拠性が推認されやすくなると整理されています 。

参考:文化庁|令和5年度著作権セミナー A I と著作権(P48)

権利制限規定(第30条の4)の範囲と限界

日本の著作権法第30条の4では、AIの学習段階において、著作物に表現された思想または感情を自ら「享受」することを目的としない場合には、著作権者の許諾なく利用できると規定されています。これは、情報解析という非享受目的の利用を広く認めるものであり、日本のAI開発を支える重要な法的基盤となっています

しかし、この規定はあくまで「学習」に対するものであり、生成されたものを「利用」する段階には適用されません。また、特定のクリエイターの作風をそのまま出力させることを目的とした追加学習(LoRA等)を行う場合は、「享受」目的が併存しているとされ、第30条の4の適用外となる可能性があることに留意が必要です 。

AI社内規定での対策:プロンプトとサービスの選定

AI社内規定においては、依拠性のリスクを最小化するために、入力段階での制限を設けることが有効です。具体的には、プロンプトに特定のアーティスト名や具体的な作品名を含めることを原則禁止すべきです。また、Image-to-Image(i2i)のように既存の画像をアップロードして生成を行う機能については、自社が権利を持つ画像、または権利関係が明確な素材に限定する運用を徹底する必要があります 。

さらに、利用するAIサービスの選定も重要です。有償プランの中には、著作権侵害のリスクを補償する「著作権免責」を謳っているサービスもありますが、その適用条件を精査し、社内の安全基準に合致するものを選定するプロセスを規定に盛り込むことが推奨されます 。

以下の表は、著作権侵害を回避するために社内規定で整理すべきチェックポイントをまとめたものです。

確認項目具体的な規定の方向性根拠となる視点
プロンプト入力特定の作家名や作品名、固有名詞の入力禁止依拠性の直接的な証拠となるのを防ぐため
追加学習(LoRA等)特定の権利者の作風再現を目的とした学習の制限享受目的の併存による権利侵害リスクの回避
外部画像の利用自社権利物またはライセンス取得済みの素材に限定i2i機能における依拠性の発生を遮断するため
サービス選定商用利用可能かつ権利関係の透明性が高いプランの採用AI提供側の利用規約遵守と補償体制の確認

リスク2:AI生成物に「著作権」は発生するか?(被害者にならないために)

AIを導入して成果物を作成した場合、その成果物が他社に無断で使用された際、自社の権利を主張できるかどうかも重要な論点です。現在の日本の法解釈では、AIが自律的に生成しただけのものには著作権が発生しないという原則があります。企業が生成物の権利を確保し、知的財産として保護するためには、一定の条件を満たす必要があります。

「著作物」の定義と創作性のハードル

著作権法第2条第1項第1号において、著作物は「思想又は感情を創作的に表現したもの」と定義されています。AIは「思想」も「感情」も持たない機械であるため、AIが自動的に出力しただけのコンテンツは著作物とは認められません。したがって、誰かがAIに短いプロンプトを入力して得ただけの結果は、一般的には「創作的寄与」がないものとして法的には保護されず、誰でも自由に利用できる状態(パブリックドメインに近い状態)に置かれることになります 。

著作物性が認められるためには、人間がAIを「道具」として使いこなし、人間に「創作的意図」と「創作的寄与」が認められなければなりません。単なる指示を超えて、人間が表現内容を実質的に制御しているかどうかが、権利発生の分かれ目となります 。

権利を確保するための「道具」としての運用

具体的にどのような行為があれば創作的寄与と認められるかについては、以下の要素が総合的に考慮されます。 まず、プロンプトの内容が具体的かつ詳細であること。単に「猫の絵」とするのではなく、構図、色使い、筆致などを細かく指定し、試行錯誤を繰り返しながら理想の表現を絞り込んでいくプロセスが必要です。次に、AIが生成したアウトプットに対し、人間が加筆・修正を行ったり、複数の生成物を組み合わせて新たな構成を加えたりすることです。このように人間が手を加えた部分については、通常、著作物性が認められます 。

企業としては、業務で作成されたAI生成物が他社に模倣された際に対抗できるよう、生成の過程(プロンプトの履歴や修正のログ)を保存しておくような運用フローを確立することが望ましいと言えます。

業務で作成されたAI生成物の権利帰属

従業員が業務としてAIを利用し、創作的寄与を行って著作物を完成させた場合、その権利は誰に帰属するのでしょうか。著作権法第15条(職務著作)の規定によれば、法人の発意に基づき、業務に従事する者が職務上作成する著作物で、法人名義で公表するものの著作者は、別段の定めがない限りその法人となります

AIを利用した場合でも、人間による創作的寄与が認められるのであれば、この職務著作の枠組みが適用可能です。ただし、AIが自律的に生成した(人間に創作的寄与がない)部分については著作権が発生しないため、法15条の適用外となります。社内規定においては、AI生成物の権利が会社に帰属することを明記するとともに、創作的寄与を伴う運用を推奨する条項を設けることが重要です 。

以下の表は、AI生成物の著作物性が認められるための要素と判断のポイントを示したものです。

判断要素著作物性が認められやすいケース著作物性が否定されやすいケース
プロンプトの性質詳細かつ具体的な指示、表現の細部指定短く抽象的な指示、アイディアの提示のみ
試行錯誤の過程多数回の生成と選択、指示の微調整の繰り返し一度の生成でそのまま採用
人間による加工生成物への直接的な加筆、修正、色彩の変更AIの出力をそのまま無加工で利用
構成・選択複数の生成物を独自に組み合わせて配置単一の生成物のみを提示

リスク3:ハルシネーション(AIの嘘)への法的防衛

リスク3:ハルシネーション(AIの嘘)への法的防衛

生成AIが抱える重大な技術的問題点の一つが、ハルシネーション(幻覚)です。これは、AIがもっともらしい嘘を出力する現象であり、ビジネス利用においては、誤った情報の拡散による名誉毀損や、誤ったデータに基づく意思決定といった深刻な事態を招く恐れがあります。

ハルシネーションの正体とビジネス上の実害

ハルシネーションは、AIが真実性を検証しているのではなく、言葉の並びの確率論的な正しさを追求しているがゆえに発生します。実在しない判例を捏造したり、架空の事件を事実として報告したりすることがあります。実際、米国では弁護士が生成AIを使って作成した書面に架空の判例が含まれており、法廷で大きな問題となった事例が報告されています

企業活動において、ハルシネーションを含んだ情報を外部に発信した場合、以下の法的リスクが発生します。 まず、特定の個人や法人の名誉を傷つける内容であれば、名誉毀損による損害賠償責任。次に、誤った市場データや財務予測に基づく投資判断を行えば、善良なる管理者の注意義務(善管注意義務)違反。さらに、顧客に対して誤った製品仕様や法的解釈を提示すれば、契約上の債務不履行責任業務妨害に問われる可能性があります 。

技術的な対策:RAG(検索拡張生成)の活用

技術的な防衛策として、RAG(Retrieval-Augmented Generation)の導入が有効です。これは、AIが回答を生成する際に、外部の不特定多数の情報ではなく、あらかじめ自社で用意した正確なドキュメントや信頼できるデータベースを参照させる技術です。これにより、回答の根拠が明確になり、ハルシネーションのリスクを大幅に低減させることが可能となります

しかし、RAGを導入したからといって、人間によるチェックが不要になるわけではありません。AIが参照資料を誤って解釈したり、不完全な要約を行ったりする可能性は依然として残るためです。

運用での対策:ファクトチェックの義務化

社内規定において最も重要なのは、AIの出力を鵜呑みにせず、人間による「ファクトチェック(真偽確認)」をプロセスとして義務化することです。経済産業省と総務省による「AI事業者ガイドライン」でも、AI利用者は出力結果の正確性を理解し、責任を持って利用判断を行うべきであるとされています 。

参考:経済産業省|AI事業者ガイドライン

具体的には、AIが提示した事実関係や数字については、必ず官公庁の公式サイト、公的統計、公式リリース等の一次情報と照合させるフローを構築します。特に、対外的に発信する文書や、高額な取引に関する資料、法的効力を持つ書面については、AI生成物であることを認識した上での厳格な二重チェック体制を規定に盛り込むべきです

権利と真偽を管理するAI社内規定例

ここまでのリスク分析を踏まえ、具体的に社内規定に盛り込むべき条文の例を提示します。規定は「禁止事項」だけでなく「利用プロセス」を定義することで、従業員が安全にAIを活用できる指針となります。

プロンプト入力時の禁止事項(著作権・セキュリティ関連)

規定例:

  1. 利用者は、生成AIへの入力(プロンプト)において、特定の個人、著名人、アーティストの名称を入力し、その作風や特徴を模倣させるような指示を行ってはならない。
  2. 既存の画像、文書、ソースコード等の著作物を入力し、それを翻案・改変させる場合は、自社が当該著作物の正当な権利者であるか、またはAI利用に関する許諾を得ている場合に限るものとする。
  3. 学習用データとして利用される可能性があるサービスにおいて、自社の機密情報、個人情報、および他者の非公開著作物を入力することを厳禁する。

AI生成物の利用プロセス(正確性・類似性確認)

規定例:

  1. AI生成物を対外的な資料、広報、製品、サービス等に使用する場合、担当者は既存の著作物との類似性が認められないか、Google画像検索や市販のコピペチェックツール等の客観的な手段を用いて確認しなければならない。
  2. AIによって出力された事実、数値、歴史的背景、法的解釈等を含む情報については、必ず信頼できる一次情報(公的データ、公式文書等)との照合を行い、人間がその真実性を確認した上で利用しなければならない。
  3. 重要な意思決定にAI生成物を活用する場合は、その生成過程(使用したプロンプト、照合したソース)を記録として保存し、上長または専門部署の承認を得るものとする。

商用利用時の規約再確認フロー

規定例:

  1. 生成AIサービスを商用利用、または外部頒布目的で利用する場合、担当者は当該サービスの最新の利用規約を確認し、商用利用の可否および生成物の権利帰属について問題がないかを事前に確認しなければならない。
  2. サービス提供側が利用規約を改定した場合には、速やかにその内容を精査し、社内規定との整合性を再評価するものとする。

まとめ:AIを安全に使いこなすためのAI社内規定は弁護士に相談を

生成AIは、正しく制御すれば人間の創造性を引き出し、業務の生産性を異次元のレベルへと高める「優秀なアシスタント」となります。しかし、そのアシスタントは時に著作権という他人の権利を侵害し、もっともらしい嘘をついて組織を窮地に陥れる可能性も持っています。本稿で詳述したリスクは、AIの利用を制限するためのものではなく、リスクの正体を正しく理解し、適切な「ガードレール」を設けることで、アクセルを最大限に踏めるようにするためのものです。

企業がAIガバナンスを構築することは、もはや選択肢ではなく、持続可能な経営のための必須条件です。著作権法やAI事業者ガイドライン、文化庁の最新の見解を反映した社内規定を整備し、人間が最終的な責任を持つ「Human-in-the-loop」の体制を確立することが、AI時代のビジネスの勝敗を分けます。

当事務所による対策のご案内

モノリス法律事務所は、IT、特にインターネットと法律の両面に豊富な経験を有する法律事務所です。AIビジネスには多くの法的リスクが伴い、AIに関する法的問題に精通した弁護士のサポートが必要不可欠です。当事務所は、AIに精通した弁護士とエンジニア等のチームで、ChatGPT等を活用したAIビジネスに対して、契約書作成、ビジネスモデルの適法性検討、知的財産権の保護、プライバシー対応、AI社内規定整備など、高度な法的サポートを提供しています。下記記事にて詳細を記載しております。

弁護士 河瀬 季

モノリス法律事務所 代表弁護士。元ITエンジニア。IT企業経営の経験を経て、東証プライム上場企業からシードステージのベンチャーまで、100社以上の顧問弁護士、監査役等を務め、IT・ベンチャー・インターネット・YouTube法務などを中心に手がける。

シェアする:

TOPへ戻る