弁護士法人 モノリス法律事務所03-6262-3248平日10:00-18:00(年末年始を除く)

法律記事MONOLITH LAW MAGAZINE

IT・ベンチャーの企業法務

ChatGPTを業務利用するリスクとは?法的な問題についても解説

ChatGPTを業務利用するリスクとは?法的な問題についても解説

ChatGPTはリリース以来、世界中でその有用性に大きな注目が集まっています。その一方でさまざまなリスクが伴うことも知られるようになりました。いまだ法整備が進められている段階であり、ChatGPTをビジネスで利用する際のリスクや、そのリスクヘッジの方法などに関して、不安に思われる経営者が多いのも事実です。

本記事では、ChatGPTをビジネス利用する際の法的リスクと対策について解説します。

ChatGPTを業務利用する際の4つのリスク

企業でも、利活用が進んでいる自然言語生成AIのChatGPTは、2022年度の企業導入率は13.5%で「導入予定がある」を含めると24.0%にのぼります。(出典:総務省|令和5年情報通信白書 通信利用動向調査「企業におけるIoT・AI等のシステム・サービスの導入状況」)

確かに、ChatGPTをはじめとしたAI技術は、企業の業務効率化には有効ですし、より多くのビジネスチャンスが見込まれます。その一方で、多くの法的リスクも伴います。そのため、リスクを十分理解した上で、ビジネス利用をするか判断する必要があります。

例えば、著作権の問題や誤情報の拡散、機密情報漏洩、プライバシーの問題、サイバー攻撃への悪用などAIの潜在的リスクについて、専門家は警鐘を鳴らしています。

この章では、ChatGPTをビジネス利用する際の4つのリスクについて解説します。

学習機能による情報漏洩のリスク

ChatGPTは便利な反面、ネット上のさまざまなデータを学習して生成されるAIチャットボットのため、何も対策を講じなければ、入力した情報が学習に使われて漏洩するリスクが潜んでいます。

OpenAIのデータ利用ポリシーによれば、ChatGPTの「API」経由か「オプトアウト」を申請しない限り、ユーザーがChatGPTに入力したデータは、OpenAIによってそのデータを収集利用(学習)されることになります。

対策を講じないままで、個人情報や機密情報など秘匿性の高い情報を入力しないよう注意が必要です。誤ってChatGPTに個人情報を入力してしまった場合でも、警告メッセージが表示され、ChatGPTは個人情報を保存または追跡せず、チャットで出力できない仕組みになっています。

一方で過去には、ChatGPTを運営するOpenAI社のシステム上のバグが原因で、ユーザーの登録した個人情報が流出する事件がありました。

関連記事:ChatGPTの情報漏洩リスクとは?取るべき4つの対策を紹介

情報の信憑性に欠けるリスク

情報の信憑性に欠けるリスク

2023年5月から実装されたChatGPTのウェブブラウジング機能により検索機能が備わったことから、ChatGPTは最新の情報を収集し、その結果に基づいて回答できるようになりました。

しかし、ChatGPTは、回答をする時に情報を真実のように出力しますが、その信憑性は保証されていません。ChatGPTが生成する応答は、学習データにより情報の正確性に基づき出力を行っているわけではなく、確率の高い(最も可能性が高い)文章と判断されたものを生成しているにすぎません。そのため、ChatGPTの回答にはファクトチェックが欠かせません。万が一、ChatGPTの回答に基づいて虚偽の情報を発信してしまうと、企業そのものの信用が損なわれるおそれがあります。

2023年4月3日東京大学は、ChatGPTには技術的な課題があるとして、今後の社会に与える影響を懸念して、下記声明を発表しました。

「ChatGPTの原理は、大量の既存の文章やコンテンツの機械学習と強化学習を通じ、確率的にもっともらしい文章を作成していくものです。したがって、書かれている内容には嘘が含まれている可能性があります。。非常に話し上手な「知ったかぶりの人物」と話しをしているような感じです。(もっとも、最新バージョンGPT4ではかなり正確性が増しており、相談相手としても相当優秀な存在です。)そのため、ChatGPTを使いこなすには、専門的な知識が必要であり、回答を批判的に確認し、適宜修正することが必要です。また、既存の情報にない新しい知見に関する分析や記述はできません。つまり、ChatGPTが出たからといって、人間自身が勉強や研究を怠ることはできないということです。ただ、教養や専門知識を有する人物が回答内容を批判的に分析し、上手に使いこなせば、定型的な業務の効率を格段に向上させることが可能でしょう。」と指摘しています。

引用: 東京大学|「生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について

著作権侵害やプライバシー侵害などの法的リスク

ChatGPTにおける著作権侵害の判断は、「AI開発・学習段階」と「生成・利用段階」において判断が分かれます。それぞれの段階で行われている著作物の利用行為が異なるため、著作権法の条文も異なります。そのため、両者は分けて考える必要があります。

参考:文化庁|令和5年度著作権セミナー「AIと著作権」

2019年1月に施行された改正著作権法には、権利制限規定(許諾が不要な例外規定)の第30条の4に「AI開発・学習段階」が新設されました。AI開発のための情報解析など、著作物に表現された思想又は感情の享受を目的としない利用行為は、原則として著作権者の許諾なく行うことが可能と規定されています。

一方、ChatGPTで出力された生成物に、著作物との類似性・依拠性(改変)が認められる場合には、著作権侵害となります。したがって公表する前には、ChatGPTが参照した情報の権利者を確認し、ChatGPTが作成したものと類似した内容がないか確認することが重要です。そして、著作物を引用する場合は出典元を明記する(権利制限規定)、転載する場合は著作権者の利用許諾を得るなどして適正に処理しなければなりません。

OpenAI社の利用規約によりますと、ChatGPTが作成したコンテンツは商用利用可能とのことですが、ChatGPTを利用して作成したコンテンツが著作権侵害にあたるか判断が難しい場合には、専門家に相談することをおすすめします。

著作権者から著作権侵害を指摘された場合には、民事責任(損害賠償・慰謝料・使用差止め・名誉回復などの法的措置)や刑事責任(親告罪)を問われる可能性もあります。企業の場合は、両罰規定が適用されて個人と法人の両方に罰則が科せられることもあり、ダメージが大きくなる可能性もあります。

また、個人情報やプライバシーについても、ChatGPTに入力しない等の注意が必要です。上述のとおり、万が一ChatGPTに個人情報を入力してしまった場合でも、ChatGPTは個人情報を保存または追跡せず、チャットで出力できない仕組みになっています。ただし、これはOpenAIの方針であり、他のプラットフォームやサービスでは異なる場合があります。

個人情報漏洩のリスクについては、以下の記事にて解説していますので、あわせてお読みください。

関連記事:企業の個人情報漏洩と損害賠償というリスク

意図せず有害なコンテンツを作成してしまうリスク

意図せず有害なコンテンツを作成してしまうリスク

ChatGPTの学習したデータの内容やプロンプトの内容によっては、有害なコンテンツを作成してしまう可能性があります。ChatGPTが作成したコンテンツをチェックせずに公開してしまうと、企業の評判やブランド価値を損ない、法的トラブルに発展する可能性もあります。

有害なコンテンツは、ChatGPTで入出力できないように設定されていますが、有害なプログラムコード、詐欺的なサービスなどは判別が難しく出力してしまう可能性があります。そうしたリスクがあることを念頭に、常に作成したコンテンツをチェックする体制が重要となります。

利用規約を理解してChatGPT利用によるリスクを回避

ChatGPTのビジネス利用にあたっては、リスク回避のため、まずOpenAIの利用規約やプライバシーポリシーに則った方法で利用しなければなりません。利用規約は頻繁に改正されているため、ビジネスで利用する際には、改正点を確認して、最新の利用規約を把握しておく必要があります。

関連記事:OpenAIの利用規約を解説、商業利用上の注意点とは?

ChatGPTの業務利用でリスクを回避するために必要なこと

ChatGPTの業務利用でリスクを回避するために必要なこと

ChatGPTが持つリスクを回避し、ビジネスで適正に利用するために、企業には以下のガバナンス体制が求められます。

社内ルールを作成する

2023年5月1日、一般社団法人日本ディープラーニング協会(JDLA)は、ChatGPTの倫理的・法的・社会的課題(ELSI)の論点をまとめ、「生成AIの利用ガイドライン」を公開しました。産学官各分野においても、ガイドラインの策定の検討が進められています。

ChatGPTの企業導入にあたっては、個人の情報セキュリティリテラシーを高めることや社内教育も欠かせませんが、自社のChatGPT利用ガイドラインを策定することが望ましいです。自社のChatGPTの利用ルールを明文化したガイドラインを策定し、周知徹底することで、一定のリスク回避を期待できます。

参考:一般社団法人日本ディープラーニング協会(JDLA)|「生成AIの利用ガイドライン

ChatGPT利用に際しての監督者を設置する

ChatGPT利用の監督者を社内に設置して、ガイドラインの運用を常にモニタリングし、リスクを管理することもリスク回避には有効です。

ChatGPTの挙動を監視し、生成結果を修正し、データを管理するという監査は、一般的にはシステム監査に近いと言えます。システム監査は、情報システムの効率性・安全性・信頼性を客観的に評価するもので、業務の効率化や組織の変革支援を目的に行います。監査をする監督者を設置することで、運用に関する透明性や説明責任を強化することもできます。

まとめ:ChatGPTの業務利用にはリスク回避の対策が不可欠

ここでは、ChatGPTの業務利用にまつわるリスクと対策について詳しく解説しました。

ChatGPTなどの急速に進化するAIビジネスには、社内利用に関するガイドラインの策定から、ビジネスモデルの適法性検討・契約書・利用規約の作成・知的財産権の保護・プライバシー対応など、さまざまな法的リスクとAI技術に精通した専門家との対策が欠かせません。

当事務所による対策のご案内

モノリス法律事務所は、IT、特にインターネットと法律の両面に豊富な経験を有する法律事務所です。AIビジネスには多くの法的リスクが伴い、AIに関する法的問題に精通した弁護士のサポートが必要不可欠です。

当事務所は、AIに精通した弁護士とエンジニア等のチームで、ChatGPTを含むAIビジネスに対してさまざまな法的サポートを提供しています。下記記事にて詳細を記載しております。

モノリス法律事務所の取扱分野:AI(ChatGPT等)法務

弁護士 河瀬 季

モノリス法律事務所 代表弁護士。元ITエンジニア。IT企業経営の経験を経て、東証プライム上場企業からシードステージのベンチャーまで、100社以上の顧問弁護士、監査役等を務め、IT・ベンチャー・インターネット・YouTube法務などを中心に手がける。

シェアする:

TOPへ戻る