使用ChatGPT进行业务活动的风险有哪些?也解析法律问题
自ChatGPT发布以来,其实用性在全球范围内受到了广泛关注。然而,人们也逐渐意识到使用它可能伴随着各种风险。目前,相关法律尚在制定阶段,许多企业家对于在商业中使用ChatGPT可能带来的风险,以及如何对这些风险进行规避,感到不安。
本文将解释在商业中使用ChatGPT时可能面临的法律风险及其应对策略。
在业务中使用ChatGPT的四大风险
在企业中,自然语言生成AI ChatGPT的利用正在推进,2022年度(令和4年)的企业采用率为13.5%,如果包括“计划采用”的话,这一比例将达到24.0%。(来源:日本総務省|令和5年(2023年)信息通信白皮书 通信使用动向调查「企业中IoT・AI等系统服务的采用状况[ja]」)
确实,包括ChatGPT在内的AI技术对于提高企业的业务效率是有效的,并且预计会带来更多的商业机会。然而,同时也伴随着许多法律风险。因此,在决定是否将其用于商业目的之前,需要充分理解这些风险。
例如,专家们已经对AI的潜在风险发出了警告,这些风险包括版权问题、错误信息的传播、机密信息泄露、隐私问题以及被用于网络攻击等。
本章将解释在商业中使用ChatGPT时的四大风险。
学习功能导致的信息泄露风险
ChatGPT虽然便利,但作为一款通过学习网络上各种数据生成的AI聊天机器人,如果不采取任何措施,输入的信息可能会被用于学习并因此泄露。
根据OpenAI的数据使用政策,除非通过ChatGPT的“API”或申请“选择退出”,否则用户输入到ChatGPT的数据将可能被OpenAI收集并用于学习。
在没有采取措施的情况下,需要注意不要输入个人信息或机密信息等高度保密的信息。即使不小心向ChatGPT输入了个人信息,也会显示警告信息,ChatGPT不会保存或追踪个人信息,并且设计了无法在聊天中输出这些信息的机制。
然而,过去曾有因OpenAI公司系统上的漏洞导致用户注册的个人信息泄露的事件发生。
相关文章:ChatGPT信息泄露风险及应采取的四项措施介绍[ja]
信息可信度缺失的风险
自2023年5月起,ChatGPT实现了网页浏览功能,因此具备了搜索功能,能够收集最新信息,并基于这些信息提供回答。
然而,尽管ChatGPT在回答问题时会输出看似真实的信息,但其信息的可信度并未得到保证。ChatGPT生成的回答并非基于学习数据的准确性,而是生成被认为概率较高(最可能的)的文本。因此,对ChatGPT的回答进行事实核查是必不可少的。如果基于ChatGPT的回答传播了虚假信息,可能会损害企业本身的信誉。
2023年4月3日,东京大学针对ChatGPT存在的技术挑战以及其对未来社会可能产生的影响表示关切,并发表了以下声明:
“ChatGPT的原理是通过大量现有文本和内容的机器学习与强化学习,概率性地创造出看似合理的文本。因此,所写内容可能包含谎言。这就像是与一个非常会说话的‘装懂者’交谈一样。(当然,最新版本GPT-4的准确性已经有了很大提升,作为咨询对象也是相当优秀的存在。)因此,要熟练使用ChatGPT,需要专业知识,批判性地检查回答,并适时进行修正。此外,它无法分析或描述现有信息之外的新知识。也就是说,即使有了ChatGPT,人们也不能忽视学习和研究。但是,如果有文化修养和专业知识的人能够批判性地分析回答内容,并熟练地使用它,那么可以显著提高标准化工作的效率。”东京大学如是指出。
引用:东京大学|「关于生成型AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)[ja]」
著作权侵犯与隐私侵犯等法律风险
在ChatGPT中,著作权侵犯的判断分为“AI开发・学习阶段”和“生成・使用阶段”。由于各阶段涉及的著作物使用行为不同,因此适用的著作权法条款也有所区别。因此,需要分别考虑这两个阶段。
参考:日本文化厅|令和5年(2023年)著作权研讨会“AI与著作权”[ja]
在2019年1月实施的修订著作权法中,新增了第30条之4的权利限制规定(无需许可的例外规定),专门针对“AI开发・学习阶段”。原则上,不以享受著作物中表达的思想或情感为目的的使用行为,如AI开发的信息分析等,可以不经著作权人许可进行。
另一方面,如果ChatGPT输出的生成物与著作物存在相似性或依赖性(改编),则可能构成著作权侵犯。因此,在公开之前,需要确认ChatGPT参考的信息的权利人,并检查ChatGPT创建的内容是否与之类似。引用著作物时,必须明确标明来源(权利限制规定);转载时,则需要获得著作权人的使用许可,以确保合理处理。
根据OpenAI公司的使用条款,ChatGPT创建的内容可以商业使用。但如果判断ChatGPT利用产生的内容是否侵犯著作权存在困难,建议咨询专业人士。
如果被著作权人指出著作权侵犯,可能会面临民事责任(赔偿损失、精神损害赔偿、使用禁止、名誉恢复等法律措施)或刑事责任(控告罪)。对于企业来说,可能适用双重惩罚规定,对个人和法人都可能施加处罚,从而造成更大的损害。
同样,对于个人信息和隐私,也需要注意不要输入到ChatGPT中。如前所述,即使不小心将个人信息输入到ChatGPT,该平台也不会保存或追踪个人信息,并且无法在聊天中输出这些信息。但这是OpenAI的政策,其他平台或服务可能有所不同。
关于个人信息泄露风险的详细解释,请参阅以下文章。
相关文章:企业个人信息泄露及其赔偿风险[ja]
无意中创造有害内容的风险
根据ChatGPT所学习的数据内容和提示的内容,可能会创造出有害内容。如果在不检查ChatGPT生成的内容的情况下就发布,可能会损害企业的声誉和品牌价值,并可能导致法律问题。
虽然已设置ChatGPT无法输入输出有害内容,但是对于有害程序代码、欺诈性服务等内容的判别可能较为困难,仍有可能输出这类内容。考虑到这些风险,始终检查生成内容的机制显得尤为重要。
理解使用条款,避免ChatGPT使用风险
在商业使用ChatGPT时,为了避免风险,首先必须按照OpenAI的使用条款和隐私政策规定的方式进行使用。由于使用条款经常进行修订,因此在商业使用时,需要确认修订内容并掌握最新的使用条款。
相关文章:解读OpenAI使用条款,商业利用时的注意事项有哪些?[ja]
如何避免在ChatGPT业务使用中的风险
为了避免ChatGPT潜在的风险并在商业中合理使用,企业需要建立以下的治理结构。
制定公司内部规则
2023年5月1日(令和5年5月1日),一般社团法人日本深度学习协会(JDLA)总结了ChatGPT的伦理、法律和社会问题(ELSI),并发布了《生成AI使用指南》。在产学官各领域,也在积极推进制定指南的考虑。
在企业引入ChatGPT时,提高个人信息安全素养和进行内部教育是必不可少的,但制定适合自己公司的ChatGPT使用指南是可取的。通过制定并广泛传达明确的ChatGPT使用规则指南,可以期待达到一定程度的风险规避。
参考:一般社团法人日本深度学习协会(JDLA)|《生成AI使用指南[ja]》
设立ChatGPT使用的监督人员
在公司内部设立ChatGPT使用的监督人员,持续监控指南的运用并管理风险,也是避免风险的有效方法。
监控ChatGPT的行为、修正生成结果和管理数据的审计工作,一般可以说是类似于系统审计。系统审计是客观评估信息系统的效率、安全性和可靠性,目的是为了业务的效率化和组织变革的支持。通过设立进行审计的监督人员,也可以加强运营的透明性和责任解释。
总结:在ChatGPT的业务应用中,采取风险规避措施至关重要
在这里,我们详细解释了ChatGPT在业务应用中可能遇到的风险和相应的对策。
对于ChatGPT这类迅速发展的AI商业应用,从制定公司内部使用指南、审查商业模式的合法性、起草合同书和使用条款、保护知识产权、到处理隐私问题等,都涉及到多种法律风险。因此,采取专业措施并与精通AI技术的专家合作是不可或缺的。
我们事务所的对策介绍
Monolith法律事务所是一家在IT领域,尤其是互联网和法律方面拥有丰富经验的律师事务所。AI业务伴随着许多法律风险,因此,获得精通AI相关法律问题的律师支持是至关重要的。
我们事务所拥有精通AI的律师和工程师等组成的团队,为包括ChatGPT在内的AI业务提供各种法律支持。具体详情请参阅下文。
Monolith法律事务所的业务范围:AI(包括ChatGPT等)法务[ja]
Category: IT
Tag: ITTerms of Use