如何防止AI的谎言和版权侵权?安全利用AI生成物的公司内部规定是什么

能否将AI转化为业务的推动力,或者反而成为品牌损害的导火索,其关键在于是否具备有效的“AI内部规定”。特别是在日本,著作权侵害或因幻觉导致的错误信息传播,一旦发生,不仅可能面临法律制裁,还可能瞬间失去长期积累的客户信任。
在本文中,我们将解读在日本商业环境中,如何在保持竞争力的同时,实现安全的AI运用所需的合规体系和规定整备的指导方针。
AI生成物的“质量”和“权利”中隐藏的陷阱
生成AI作为一种工具,已经被广泛应用于从创意工作到事务处理的各个领域,极大地减少了从零到一的创造所需的巨大努力,并显著提高了效率。然而,在其便利性背后,隐藏着与传统IT工具根本不同的法律风险,特别是在日本的法律框架下。
生成AI所产生的输出是基于大量现有学习数据概率性得出的,由于其生成过程是一个“黑箱”,用户在不知情的情况下可能会侵犯他人的权利,或将看似真实的谎言传播为事实。这种风险在日本的法律环境中尤为需要注意。
在商业场合中,“因为是AI生成的”这种辩解是行不通的。引入AI进行业务的企业或使用AI的个人,必须对其输出结果承担法律责任。为了避免因不当信息传播导致的名誉损害或因版权侵权引发的损害赔偿请求,企业需要设立明确的“防护栏”,而不是仅依赖现场的判断。根据最新的日本法律法规和指导方针,企业应迅速建立稳固的内部规定,以防止成为版权侵权的加害者或受害者,并阻止错误信息的传播。
风险1:如何避免成为著作权侵权者(在日本)

在商业中使用生成AI时,最令人担忧的是侵犯他人著作权并因此承担法律责任的风险。由于生成AI的机制,它具有输出反映学习数据中包含的现有著作物特征的内容的特性。正确理解这一过程,并明确在何种情况下会被视为“侵权”,是采取防御措施的第一步。
生成AI与日本著作权机制
生成AI根据输入的指令(提示),从学习的大量数据中提取模式,生成新的内容。在此过程中,AI并非理解“信息的意义”,而是基于统计概率预测下一个词或像素。因此,可能会在用户无意中生成与特定创作者的作品或特定著作物极为相似的内容。
根据日本文化厅公布的《AI与著作权相关的观点》,AI生成物的著作权侵权判断与普通著作物采用相同的框架。具体而言,当认定存在与现有著作物的“相似性”及“依赖性”时,侵权即成立。
参考:文化厅|关于AI与著作权
侵权成立的两大要件:「相似性」与「依赖性」
相似性指的是生成的输出与现有著作物的创作性表达相同或共享本质特征的状态。另一方面,依赖性意味着是基于现有著作物进行创作。在传统的日本著作权侵权中,焦点在于创作者是否曾见过该著作物,而在生成AI的情况下,AI的学习数据中是否包含该著作物成为重要的判断依据。
特别值得注意的是,即使用户不知道现有的著作物,如果AI曾学习过该著作物,依赖性仍可能被认定。这被称为「黑箱问题」。根据日本文化厅的观点,即使学习数据的内容不明,若AI广泛学习了互联网上的信息,并且生成物与现有著作物显著相似,则依赖性更容易被推定。
参考:文化厅|令和5年度(2023年)著作权研讨会 AI与著作权(P48)
权利限制规定(第30条之4)的范围与限制
根据日本著作权法第30条之4,在AI的学习阶段,如果不以自我“享受”著作物中表达的思想或情感为目的,则可以在未经著作权人许可的情况下使用。这一规定广泛承认了信息解析这一非享受目的的使用,成为支持日本AI开发的重要法律基础。
然而,该规定仅适用于“学习”阶段,并不适用于生成物的“使用”阶段。此外,如果进行以特定创作者的风格为目标的额外学习(如LoRA等),则可能被视为存在“享受”目的,因此可能不适用于第30条之4的规定。
AI社内规定中的对策:提示词和服务的选择
在AI社内规定中,为了最小化依赖性风险,设定输入阶段的限制是有效的。具体来说,应原则上禁止在提示词中包含特定艺术家姓名或具体作品名称。此外,对于像Image-to-Image(i2i)这样上传现有图像进行生成的功能,必须严格限制为使用公司拥有权利的图像或权利关系明确的素材。
此外,选择使用的AI服务也很重要。在一些付费计划中,提供了声称补偿版权侵权风险的“版权免责”服务,但建议在规定中加入审查其适用条件并选择符合公司内部安全标准的流程。
以下表格总结了为避免版权侵权而在社内规定中应整理的检查要点。
| 检查项目 | 具体规定方向 | 依据的视点 |
| 提示词输入 | 禁止输入特定作家名、作品名、专有名词 | 防止成为依赖性的直接证据 |
| 追加学习(如LoRA) | 限制以再现特定权利者风格为目的的学习 | 避免因享受目的的并存而产生的权利侵害风险 |
| 外部图像的使用 | 限定为公司权利物或已取得许可的素材 | 阻断i2i功能中依赖性的发生 |
| 服务选择 | 采用可商用且权利关系透明度高的计划 | 确认AI提供方的使用条款遵守和补偿体制 |
风险2:AI生成物是否会产生“著作权”?(为了避免成为受害者)
在日本,如果企业使用AI生成成果物,当其他公司未经许可使用这些成果物时,能否主张自家权利是一个重要的论点。根据当前的日本法律解释,AI自主生成的内容原则上不产生著作权。为了确保企业对生成物的权利并将其作为知识产权进行保护,企业需要满足一定的条件。
“著作物”在日本法律下的定义与创作性的门槛
根据日本《著作权法》第2条第1项第1号,著作物被定义为“以创作性方式表达的思想或感情”。由于AI是没有“思想”或“感情”的机器,因此仅由AI自动生成的内容不被视为著作物。因此,若有人仅输入简短的提示词给AI并获得结果,这种情况下通常被认为没有“创作性贡献”,在法律上不受保护,任何人都可以自由使用,处于接近公共领域的状态。
为了被认定为著作物,人类必须将AI作为“工具”加以运用,并且人类的“创作性意图”和“创作性贡献”必须得到认可。是否超越简单的指令,人类是否实质性地控制了表达内容,是权利产生的关键。
作为确保权利的“工具”的运用
具体来说,哪些行为可以被认定为创作性贡献,以下要素将被综合考虑。首先,提示的内容需要具体且详细。不仅仅是“猫的画”,而是需要详细指定构图、色彩运用、笔触等,并通过反复试验逐步缩小到理想的表现。其次,对于AI生成的输出,人类进行的增补、修改,或将多个生成物组合成新的构成,这些人类参与的部分通常会被认定为具有著作物性。
作为企业,为了在AI生成物被其他公司模仿时能够进行对抗,建议建立保存生成过程(提示历史和修改日志)的运作流程。这在日本的法律框架下尤为重要。
在日本,业务中创建的AI生成物的权利归属
当员工在业务中使用AI进行创作性贡献并完成著作物时,该权利归属于谁呢?根据日本《著作权法》第15条(职务著作)的规定,基于法人意图,由从事业务的人员在职务上创作并以法人名义发表的著作物,除非另有规定,著作者为该法人。
即使在使用AI的情况下,只要承认有人类的创作性贡献,这一职务著作的框架也可以适用。然而,对于AI自主生成的(没有人类创作性贡献的)部分,由于不产生著作权,因此不适用法第15条。在公司内部规定中,明确AI生成物的权利归属于公司,并设立鼓励伴随创作性贡献的运用条款是很重要的。
下表展示了AI生成物被认定为著作物性的要素和判断要点。
| 判断要素 | 容易被认定为著作物性的情况 | 容易被否定为著作物性的情况 |
| 提示的性质 | 详细且具体的指示,表达细节的指定 | 简短抽象的指示,仅提供想法 |
| 试错过程 | 多次生成与选择,反复微调指示 | 一次生成后直接采用 |
| 人类加工 | 对生成物进行直接的增补、修改、色彩更改 | 直接使用AI的输出,无加工 |
| 构成与选择 | 独立组合多个生成物进行配置 | 仅展示单一生成物 |
风险3:针对幻觉(AI的谎言)的法律防御

生成型AI面临的一个重大技术问题是幻觉。这是指AI输出看似合理的谎言的现象。在商业使用中,这可能导致因错误信息传播而引发的名誉损害,或基于错误数据做出决策,从而引发严重后果。在日本的法律框架下,企业需要采取适当的法律防御措施,以应对这些潜在的风险。
幻觉的本质与商业上的实际危害
幻觉现象的产生是因为AI并非在验证真实性,而是在追求词语排列的概率正确性。因此,可能会捏造不存在的判例或将虚构的事件作为事实报告。实际上,在美国,有律师使用生成式AI制作的文件中包含虚构的判例,这在法庭上引发了重大问题。
在企业活动中,如果向外部发布包含幻觉的信息,会产生以下法律风险。首先,如果内容损害了特定个人或法人的名誉,可能会导致因名誉损害而承担损害赔偿责任。其次,如果基于错误的市场数据或财务预测进行投资决策,可能会违反善良管理者的注意义务(善管注意义务)。此外,如果向客户提供错误的产品规格或法律解释,可能会被追究合同上的债务不履行责任或业务妨碍。
技术对策:利用RAG(检索扩展生成)
作为技术防御措施,引入RAG(检索扩展生成)是有效的。这项技术让AI在生成回答时,不是参考外部不特定多数的信息,而是参考事先由公司准备的准确文档或可信赖的数据库。通过这种方式,可以明确回答的依据,并大幅降低幻觉的风险。
然而,即使引入了RAG,也并不意味着可以不进行人工检查。因为AI仍有可能错误解读参考资料或进行不完整的总结。
运营对策:强制实施事实核查
在公司内部规定中,最重要的是不要盲目相信AI的输出结果,而是将由人进行的“事实核查”作为一个强制性的流程。根据日本经济产业省和总务省的《AI事业者指南》,AI的使用者应理解输出结果的准确性,并负责任地进行使用判断。
具体而言,对于AI提供的事实关系和数字,必须建立一个与政府机关的官方网站、公共统计数据、官方发布等一次信息进行对照的流程。特别是对于对外发布的文件、高额交易相关的资料以及具有法律效力的文件,应该在认识到其为AI生成物的基础上,将严格的双重检查制度纳入规定中。
管理权利与真实性的AI内部规定示例
基于前述的风险分析,本文提供了应纳入内部规定的具体条款示例。规定不仅要包含“禁止事项”,还需定义“使用流程”,以便为员工安全使用AI提供指导。
输入提示时的禁止事项(著作权与安全性相关)
规定示例:
- 使用者在输入生成AI的提示时,不得输入特定个人、知名人士或艺术家的名称,并指示AI模仿其风格或特征。
- 在输入现有的图像、文档、源代码等著作物并进行改编或修改时,仅限于公司为该著作物的合法权利人或已获得AI使用相关许可的情况。
- 在可能被用作学习数据的服务中,严禁输入公司的机密信息、个人信息及他人的非公开著作物。
AI生成物的使用流程(准确性与相似性确认)
规定示例:
- 在将AI生成物用于对外资料、宣传、产品、服务等时,负责人必须使用Google图片搜索或市售的抄袭检查工具等客观手段,确认其与现有著作物无相似性。
- 对于AI输出的包含事实、数据、历史背景、法律解释等信息,必须与可信赖的一手信息(如公共数据、官方文件等)进行对照,并由人类确认其真实性后方可使用。
- 在将AI生成物用于重要决策时,需记录其生成过程(使用的提示、对照的来源),并获得上级或专业部门的批准。
商用利用时的条款再确认流程
规定示例:
- 在将生成AI服务用于商业用途或外部分发目的时,负责人必须确认该服务的最新使用条款,事先确认商用利用的可行性及生成物的权利归属是否存在问题。
- 若服务提供方修改了使用条款,应立即审查其内容,并重新评估与公司内部规定的一致性。
总结:为安全使用AI制定的AI内部规定,请咨询日本律师
生成型AI如果得到正确控制,可以成为引发人类创造力并将业务生产力提升到全新高度的“优秀助手”。然而,这位助手有时可能会侵犯他人的著作权,并编造看似合理的谎言,使组织陷入困境。本文详述的风险并非为了限制AI的使用,而是为了正确理解风险的本质,并设立适当的“护栏”,以便能够最大限度地加速发展。
企业构建AI治理体系已不再是一个选择,而是实现可持续经营的必要条件。制定反映日本著作权法、AI业务指南以及文化厅最新见解的内部规定,并确立由人类最终负责的“Human-in-the-loop”体制,将决定AI时代商业的成败。
本事务所的对策指南
Monolith法律事务所是一家在IT领域,特别是互联网和法律方面拥有丰富经验的法律事务所。AI业务伴随着许多法律风险,因此需要熟悉AI相关法律问题的律师支持是不可或缺的。本事务所由精通AI的律师和工程师等团队组成,针对使用ChatGPT等技术的AI业务,提供合同书制作、商业模式合法性审查、知识产权保护、隐私应对、AI内部规章制度完善等高级法律支持。详细信息请参阅下列文章。
Category: IT




















