MONOLITH 律師事務所+81-3-6262-3248平日 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

使用ChatGPT於業務中的風險有哪些?也解說法律問題

IT

使用ChatGPT於業務中的風險有哪些?也解說法律問題

自ChatGPT發布以來,其實用性在全球範圍內受到了廣泛關注。然而,人們也逐漸意識到使用它可能伴隨著各種風險。目前法律制度尚在完善階段,許多企業主對於在商業活動中使用ChatGPT可能帶來的風險,以及如何對這些風險進行規避,感到不安是不爭的事實。

本文將解說在商業活動中利用ChatGPT時可能面臨的法律風險及其應對策略。

在業務中使用ChatGPT的四大風險

在企業中,自然語言生成AI ChatGPT的利用正在進展,其2022年度的企業導入率為13.5%,若包括「計劃導入」的話,則高達24.0%。(資料來源:日本総務省|令和5年(2023年)信息通信白書 通信利用動向調査「企業導入物聯網・AI等系統・服務的現狀[ja]」)

確實,包括ChatGPT在內的AI技術對於提升企業的業務效率是有效的,並且預期能帶來更多的商業機會。然而,同時也伴隨著許多法律風險。因此,在決定是否將其用於商業活動之前,需要充分理解這些風險。

例如,專家們對AI潛在的風險,如著作權問題、錯誤信息的擴散、機密信息洩露、隱私問題以及被用於網絡攻擊等,都發出了警告。

本章將解釋在業務中使用ChatGPT時的四大風險。

學習功能導致的資訊洩露風險

ChatGPT雖然方便,但作為一個通過學習網絡上各種數據而生成的AI聊天機器人,如果不採取任何措施,輸入的資訊可能會被用於學習並導致洩露風險。

根據OpenAI的數據使用政策,除非通過ChatGPT的「API」或申請「選擇退出」,否則用戶輸入到ChatGPT的數據將可能被OpenAI收集並用於學習(利用)。

在未採取措施的情況下,需要注意不要輸入個人資訊或機密資訊等高度機密的資訊。即使不小心向ChatGPT輸入了個人資訊,系統也會顯示警告訊息,並且ChatGPT設計為不會儲存或追蹤個人資訊,也無法在聊天中輸出這些資訊。

然而,在過去,由於OpenAI公司系統上的漏洞,曾發生用戶註冊的個人資訊洩露的事件。

相關文章:ChatGPT的資訊洩露風險及應採取的四項對策介紹[ja]

資訊信賴性缺乏的風險

資訊信賴性缺乏的風險

自2023年5月起,ChatGPT實裝了網頁瀏覽功能,從而具備了搜尋功能,使其能夠收集最新資訊並基於這些結果提供回答。

然而,ChatGPT在回答問題時雖然會將資訊呈現得宛如真實,但其信賴性並未得到保證。ChatGPT生成的回應不是基於學習數據的準確性,而是僅僅產生被判斷為概率較高(最可能的)的文句。因此,對ChatGPT的回答進行事實核查是不可或缺的。如果基於ChatGPT的回答而傳播虛假資訊,企業本身的信譽可能會受到損害。

2023年4月3日(令和5年),東京大學針對ChatGPT存在的技術挑戰以及其對未來社會可能造成的影響表示擔憂,發表了以下聲明:

「ChatGPT的原理是通過大量現有文本和內容的機器學習與強化學習,概率性地創造出看似合理的文句。因此,所寫內容可能包含謊言。這就像是在與一個非常會說話的“裝懂者”交談。(當然,最新版本GPT4的準確性已經有了顯著提升,作為諮詢對象也相當出色。)因此,要熟練使用ChatGPT,需要專業知識,並且要批判性地檢查回答,適時進行修正。此外,對於現有資訊之外的新知識進行分析或描述是無法做到的。換句話說,即使有了ChatGPT,人們也不能忽視學習和研究。不過,如果具備教養和專業知識的人能夠批判性地分析回答內容,並且熟練地運用它,則有可能大幅提高標準化業務的效率。」東京大學如此指出。

引用: 東京大學|「生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について[ja]

著作權侵害與隱私侵害等法律風險

在ChatGPT中,著作權侵害的判斷分為「AI開發・學習階段」與「生成・利用階段」兩個部分。由於各階段中對著作物的使用行為不同,適用的著作權法條文也有所差異。因此,必須分開考慮這兩者。

參考:文化廳|令和5年(2023年)度著作權研討會「AI與著作權」[ja]

在2019年1月施行的修正著作權法中,新增了針對「AI開發・學習階段」的權利限制規定(不需要許可的例外規定)第30條之4。AI開發所需的信息分析等,不以享受著作物中表達的思想或情感為目的的使用行為,原則上可以不經著作權人許可進行。

另一方面,若ChatGPT輸出的生成物與著作物存在類似性或依賴性(改編),則可能構成著作權侵害。因此,在公開之前,需要確認ChatGPT參照的信息的權利人,並檢查ChatGPT創建的內容是否有類似之處。引用著作物時,必須明確標示出處(權利限制規定);轉載時,則需獲得著作權人的使用許可,以便適當處理。

根據OpenAI公司的使用條款,ChatGPT創建的內容可以商業使用。但若難以判斷利用ChatGPT創建的內容是否構成著作權侵害,建議諮詢專業人士。

若被著作權人指出著作權侵害,可能會面臨民事責任(損害賠償、慰問金、使用禁止、名譽恢復等法律措施)或刑事責任(親告罪)。對企業而言,可能適用雙重處罰規定,對個人和法人均可能施加處罰,損害可能會更大。

同樣地,對於個人信息和隱私,也需注意不要輸入到ChatGPT中。如前所述,即使不慎輸入了個人信息,ChatGPT也不會儲存或追蹤該信息,且無法在聊天中輸出。但這是OpenAI的政策,其他平台或服務可能有所不同。

關於個人信息洩露風險的詳細解說,請參閱以下文章。

相關文章:企業的個人信息洩露與損害賠償的風險[ja]

無意間創建有害內容的風險

無意間創建有害內容的風險

根據ChatGPT所學習的數據內容和提示的內容,可能會創建出有害的內容。如果在不檢查的情況下公開ChatGPT創建的內容,可能會損害企業的聲譽和品牌價值,甚至可能導致法律問題。

雖然設定了防止ChatGPT輸入輸出有害內容的措施,但有害的程序代碼、詐騙性服務等仍難以辨識,可能會被輸出。考慮到這些風險,建立一個總是檢查創建內容的機制變得尤為重要。

理解使用條款以避免使用ChatGPT的風險

在商業上使用ChatGPT時,為了避免風險,首先必須按照OpenAI的使用條款和隱私政策來使用。由於使用條款經常進行修訂,因此在商業使用時,必須確認修訂內容並掌握最新的使用條款。

相關文章:解析OpenAI使用條款,商業利用上的注意事項有哪些?[ja]

如何避免在ChatGPT業務應用中的風險

制定公司內部規則

為了避免ChatGPT帶來的風險並在商業中適當使用,企業需要建立以下的治理架構。

制定公司內部規則

2023年5月1日,一般社団法人日本深度學習協會(JDLA)總結了ChatGPT的倫理、法律和社會問題(ELSI),並公開了「生成AI使用指南」。在產學官各領域,也正在推進制定指南的考慮。

在企業導入ChatGPT時,提高個人的信息安全素養和進行公司內部教育是必不可少的,但制定適合自己公司的ChatGPT使用指南是可取的。制定並廣泛宣傳明確的ChatGPT使用規則指南,可以期待達到一定程度的風險避免。

參考:一般社団法人日本深度學習協會(JDLA)|「生成AI使用指南[ja]

設置ChatGPT使用的監督人員

在公司內設置ChatGPT使用的監督人員,持續監控指南的運作並管理風險,這也是避免風險的有效方法。

監控ChatGPT的行為、修正生成結果和管理數據的審計工作,一般來說與系統審計相似。系統審計是客觀評估信息系統的效率、安全性和可靠性,目的是為了提高業務效率和支援組織變革。設置進行審計的監督人員,可以增強運營的透明度和責任解釋。

總結:在業務中使用ChatGPT必須採取風險規避措施

本文詳細解說了在業務中使用ChatGPT所涉及的風險及其對策。

對於迅速發展的AI商業應用,如ChatGPT,從制定公司內部使用指南、檢視商業模式的合法性、起草契約和使用條款、保護智慧財產權、到隱私保護等方面,都涉及多種法律風險。因此,與精通AI技術的專家合作,制定相應的對策是不可或缺的。

本所提供的對策介紹

Monolith法律事務所是一家在IT領域,特別是互聯網和法律方面擁有豐富經驗的律師事務所。AI業務伴隨著許多法律風險,因此獲得精通AI相關法律問題的律師支持是至關重要的。

本所擁有精通AI的律師與工程師等專業團隊,為包括ChatGPT在內的AI業務提供各種法律支援。詳細內容已在下列文章中說明。

Monolith法律事務所的服務領域:AI(包括ChatGPT等)法務[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

返回頂部