使用ChatGPT於業務中的風險有哪些?也解說法律問題
自ChatGPT發布以來,其實用性在全球範圍內受到了廣泛關注。然而,人們也逐漸意識到使用它可能伴隨著各種風險。目前法律制度尚在完善階段,許多企業主對於在商業活動中使用ChatGPT可能帶來的風險,以及如何對這些風險進行規避,感到不安是不爭的事實。
本文將解說在商業活動中利用ChatGPT時可能面臨的法律風險及其應對策略。
在業務中使用ChatGPT的四大風險
在企業中,自然語言生成AI ChatGPT的利用正在進展,其2022年度的企業導入率為13.5%,若包括「計劃導入」的話,則高達24.0%。(資料來源:日本総務省|令和5年(2023年)信息通信白書 通信利用動向調査「企業導入物聯網・AI等系統・服務的現狀[ja]」)
確實,包括ChatGPT在內的AI技術對於提升企業的業務效率是有效的,並且預期能帶來更多的商業機會。然而,同時也伴隨著許多法律風險。因此,在決定是否將其用於商業活動之前,需要充分理解這些風險。
例如,專家們對AI潛在的風險,如著作權問題、錯誤信息的擴散、機密信息洩露、隱私問題以及被用於網絡攻擊等,都發出了警告。
本章將解釋在業務中使用ChatGPT時的四大風險。
學習功能導致的資訊洩露風險
ChatGPT雖然方便,但作為一個通過學習網絡上各種數據而生成的AI聊天機器人,如果不採取任何措施,輸入的資訊可能會被用於學習並導致洩露風險。
根據OpenAI的數據使用政策,除非通過ChatGPT的「API」或申請「選擇退出」,否則用戶輸入到ChatGPT的數據將可能被OpenAI收集並用於學習(利用)。
在未採取措施的情況下,需要注意不要輸入個人資訊或機密資訊等高度機密的資訊。即使不小心向ChatGPT輸入了個人資訊,系統也會顯示警告訊息,並且ChatGPT設計為不會儲存或追蹤個人資訊,也無法在聊天中輸出這些資訊。
然而,在過去,由於OpenAI公司系統上的漏洞,曾發生用戶註冊的個人資訊洩露的事件。
相關文章:ChatGPT的資訊洩露風險及應採取的四項對策介紹[ja]
資訊信賴性缺乏的風險
自2023年5月起,ChatGPT實裝了網頁瀏覽功能,從而具備了搜尋功能,使其能夠收集最新資訊並基於這些結果提供回答。
然而,ChatGPT在回答問題時雖然會將資訊呈現得宛如真實,但其信賴性並未得到保證。ChatGPT生成的回應不是基於學習數據的準確性,而是僅僅產生被判斷為概率較高(最可能的)的文句。因此,對ChatGPT的回答進行事實核查是不可或缺的。如果基於ChatGPT的回答而傳播虛假資訊,企業本身的信譽可能會受到損害。
2023年4月3日(令和5年),東京大學針對ChatGPT存在的技術挑戰以及其對未來社會可能造成的影響表示擔憂,發表了以下聲明:
「ChatGPT的原理是通過大量現有文本和內容的機器學習與強化學習,概率性地創造出看似合理的文句。因此,所寫內容可能包含謊言。這就像是在與一個非常會說話的“裝懂者”交談。(當然,最新版本GPT4的準確性已經有了顯著提升,作為諮詢對象也相當出色。)因此,要熟練使用ChatGPT,需要專業知識,並且要批判性地檢查回答,適時進行修正。此外,對於現有資訊之外的新知識進行分析或描述是無法做到的。換句話說,即使有了ChatGPT,人們也不能忽視學習和研究。不過,如果具備教養和專業知識的人能夠批判性地分析回答內容,並且熟練地運用它,則有可能大幅提高標準化業務的效率。」東京大學如此指出。
引用: 東京大學|「生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について[ja]」
著作權侵害與隱私侵害等法律風險
在ChatGPT中,著作權侵害的判斷分為「AI開發・學習階段」與「生成・利用階段」兩個部分。由於各階段中對著作物的使用行為不同,適用的著作權法條文也有所差異。因此,必須分開考慮這兩者。
參考:文化廳|令和5年(2023年)度著作權研討會「AI與著作權」[ja]
在2019年1月施行的修正著作權法中,新增了針對「AI開發・學習階段」的權利限制規定(不需要許可的例外規定)第30條之4。AI開發所需的信息分析等,不以享受著作物中表達的思想或情感為目的的使用行為,原則上可以不經著作權人許可進行。
另一方面,若ChatGPT輸出的生成物與著作物存在類似性或依賴性(改編),則可能構成著作權侵害。因此,在公開之前,需要確認ChatGPT參照的信息的權利人,並檢查ChatGPT創建的內容是否有類似之處。引用著作物時,必須明確標示出處(權利限制規定);轉載時,則需獲得著作權人的使用許可,以便適當處理。
根據OpenAI公司的使用條款,ChatGPT創建的內容可以商業使用。但若難以判斷利用ChatGPT創建的內容是否構成著作權侵害,建議諮詢專業人士。
若被著作權人指出著作權侵害,可能會面臨民事責任(損害賠償、慰問金、使用禁止、名譽恢復等法律措施)或刑事責任(親告罪)。對企業而言,可能適用雙重處罰規定,對個人和法人均可能施加處罰,損害可能會更大。
同樣地,對於個人信息和隱私,也需注意不要輸入到ChatGPT中。如前所述,即使不慎輸入了個人信息,ChatGPT也不會儲存或追蹤該信息,且無法在聊天中輸出。但這是OpenAI的政策,其他平台或服務可能有所不同。
關於個人信息洩露風險的詳細解說,請參閱以下文章。
無意間創建有害內容的風險
根據ChatGPT所學習的數據內容和提示的內容,可能會創建出有害的內容。如果在不檢查的情況下公開ChatGPT創建的內容,可能會損害企業的聲譽和品牌價值,甚至可能導致法律問題。
雖然設定了防止ChatGPT輸入輸出有害內容的措施,但有害的程序代碼、詐騙性服務等仍難以辨識,可能會被輸出。考慮到這些風險,建立一個總是檢查創建內容的機制變得尤為重要。
理解使用條款以避免使用ChatGPT的風險
在商業上使用ChatGPT時,為了避免風險,首先必須按照OpenAI的使用條款和隱私政策來使用。由於使用條款經常進行修訂,因此在商業使用時,必須確認修訂內容並掌握最新的使用條款。
相關文章:解析OpenAI使用條款,商業利用上的注意事項有哪些?[ja]
如何避免在ChatGPT業務應用中的風險
為了避免ChatGPT帶來的風險並在商業中適當使用,企業需要建立以下的治理架構。
制定公司內部規則
2023年5月1日,一般社団法人日本深度學習協會(JDLA)總結了ChatGPT的倫理、法律和社會問題(ELSI),並公開了「生成AI使用指南」。在產學官各領域,也正在推進制定指南的考慮。
在企業導入ChatGPT時,提高個人的信息安全素養和進行公司內部教育是必不可少的,但制定適合自己公司的ChatGPT使用指南是可取的。制定並廣泛宣傳明確的ChatGPT使用規則指南,可以期待達到一定程度的風險避免。
參考:一般社団法人日本深度學習協會(JDLA)|「生成AI使用指南[ja]」
設置ChatGPT使用的監督人員
在公司內設置ChatGPT使用的監督人員,持續監控指南的運作並管理風險,這也是避免風險的有效方法。
監控ChatGPT的行為、修正生成結果和管理數據的審計工作,一般來說與系統審計相似。系統審計是客觀評估信息系統的效率、安全性和可靠性,目的是為了提高業務效率和支援組織變革。設置進行審計的監督人員,可以增強運營的透明度和責任解釋。
總結:在業務中使用ChatGPT必須採取風險規避措施
本文詳細解說了在業務中使用ChatGPT所涉及的風險及其對策。
對於迅速發展的AI商業應用,如ChatGPT,從制定公司內部使用指南、檢視商業模式的合法性、起草契約和使用條款、保護智慧財產權、到隱私保護等方面,都涉及多種法律風險。因此,與精通AI技術的專家合作,制定相應的對策是不可或缺的。
本所提供的對策介紹
Monolith法律事務所是一家在IT領域,特別是互聯網和法律方面擁有豐富經驗的律師事務所。AI業務伴隨著許多法律風險,因此獲得精通AI相關法律問題的律師支持是至關重要的。
本所擁有精通AI的律師與工程師等專業團隊,為包括ChatGPT在內的AI業務提供各種法律支援。詳細內容已在下列文章中說明。
Monolith法律事務所的服務領域:AI(包括ChatGPT等)法務[ja]
Category: IT
Tag: ITTerms of Use