MONOLITH LAW OFFICE+81-3-6262-3248工作日 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

General Corporate

生成AI与日本著作权法:企业的法律风险指南

General Corporate

生成AI与日本著作权法:企业的法律风险指南

生成AI正在为企业运营的各个方面带来革命性的可能性,从内容制作到研发、客户服务,其应用范围正日益扩大。然而,这一技术创新在与日本著作权法的关联上,为企业带来了新的法律挑战。在众多企业考虑或推进采用生成AI的同时,准确理解并管理潜在的著作权侵犯风险是至关重要的。日本著作权法具有独特的结构,它在AI的开发阶段和使用阶段应用不同的法律原则,这增加了法律操作的复杂性。为了促进AI的发展,在学习阶段提供相对宽松的规定,而在使用生成物的用户则承担严格的责任,理解这种双重结构是风险管理的第一步。本文将系统性地解释生成AI在日本著作权法框架内带来的主要法律议题。具体来说,我们将探讨AI在「开发·学习阶段」的法律处理,在商业中「生成·使用阶段」的著作权侵犯风险,AI生成物本身的著作权归属,以及如果侵权发生时企业的责任和法律措施,同时基于日本政府机构文化厅的观点,为企业管理层和法务人员提供战略性的应对方法。

人工智能开发与学习阶段下的日本著作权法

为了使生成型人工智能展现出高级能力,需要学习大量的数据。这些数据包括文章、图片、音乐、程序代码等多种多样的受著作权保护的作品。日本著作权法为了使这类AI开发中的作品使用更加顺畅,设定了在特定条件下无需获得著作权人许可的规定。

其中的核心是2018年(平成30年/令和元年)法律修正引入的日本著作权法第30条之4。该条款允许“不以享受作品中表达的思想或情感为目的的使用”,被定位为“灵活的权利限制规定”之一。AI的学习并非为了人们欣赏作品(即“享受”),而是为了提取和分析数据中的模式和结构。因此,原则上AI开发者可以在不获得著作权人许可的情况下,使用互联网上公开的数据进行学习。这一规定背后反映了促进日本技术创新和产业竞争力提升的政策意图。

然而,这一原则存在重要的例外。日本著作权法第30条之4在附文中规定,“如果考虑到作品的种类和用途以及使用方式,可能会不公正地损害著作权人的利益,则不适用此规定”。具体哪些情况属于“不公正地损害”需要进行个案具体判断,但日本文化厅发布的“关于AI与著作权的考虑方式”中提出了一些类型。

例如,未经许可、不支付费用就复制专门为AI学习用途整理和销售的数据库作品进行学习的行为,可能会直接与数据库提供者的市场竞争,严重损害其利益。此外,为了生成模仿特定创作者风格的内容,集中学习该创作者作品的行为,可能会超出原本的“非享受目的”范围,被认为是存在享受目的。再者,明知是侵犯著作权的海盗版作品,仍从中收集数据用于AI学习的行为,也被视为助长了权利侵害。

这些例子表明,在AI开发阶段的合规性不仅仅是技术上能否复制数据的问题,还涉及到行为是否会在经济上损害现有市场或权利人的合法利益,这需要更高层次的判断。企业在进行AI开发或委托开发时,必须对学习数据的来源和使用方式进行谨慎的尽职调查,以确保符合这些法律和伦理标准。

在日本使用AI生成物的著作权侵权风险

即使AI在日本著作权法第30条之4(1989年)的规定下合法地进行开发和学习,也无法保证使用该AI生成的内容不侵犯著作权。法律保护仅限于学习阶段,而在生成和使用阶段,AI用户将直接承担著作权侵权的责任风险。

根据日本的判例,著作权侵权成立通常需要满足“相似性”和“依赖性”两个条件。相似性指的是后来的作品与现有著作物的创造性表达部分实质上相似。如果仅仅是共有的想法、风格或常见表达,则不认定为相似性。依赖性意味着后来的作品是基于现有著作物创作的,如果是不知道现有著作物而偶然创作的,则否定依赖性。

在使用生成AI时,生成物与现有著作物相似的情况是完全可能的。问题在于如何判断依赖性。如果AI用户意识到特定的著作物,并给出了复现该作品的指令(提示),则依赖性是显而易见的。然而,更复杂的情况是,即使用户完全不知道特定的著作物,但由于AI将其作为学习数据,因此生成了相似的作品。尽管对此法律观点尚未确立,但存在一种论点认为,如果AI的学习数据中包含了相关著作物,那么依赖性可能被推定。AI模型的学习数据通常是庞大且不透明的,用户实际上不可能完全掌握,这对企业来说是极其难以管理的本质法律风险。

由于无法完全排除这种风险,企业需要采取实际措施来管理风险,并为可能发生的争议做好准备。首先,制定明确的内部生成AI使用指南并彻底教育员工是至关重要的。需要明确规定哪些目的、使用哪些AI工具以及如何使用是允许的。其次,在尤其是向外部发布AI生成的内容之前,应该引入人工审核和编辑的流程。将AI生成物仅作为草稿处理,并通过人类的创造性判断来完成最终成果,可以减少与原著作物的相似性。第三,尽可能保留生成过程的记录是可取的。记录使用了哪些提示来生成内容,在依赖性受到质疑时,这些记录可能成为证明无侵权意图的有用资料。

人工智能与著作权在日本的主要法律论点比较

围绕人工智能(AI)与著作权的法律问题,根据AI的生命周期阶段,其性质有很大的不同。下表比较并整理了在“开发·学习阶段”与“生成·使用阶段”中的主要法律论点。通过这种比较,我们可以清晰地理解责任归属和风险性质的变化。

比较项目开发·学习阶段生成·使用阶段
主要相关法规日本著作权法第30条之4日本著作权法中的复制权、改编权等
中心法律问题使用目的是否为“非享受目的”,以及是否“不当损害”了著作权人的利益生成物是否与现有著作物“相似”并“依赖”之
主要责任主体AI开发者AI使用者
法律风险的性质因非法数据收集·学习导致的开发过程法律缺陷无意中生成并公开著作权侵犯物的直接侵权责任

关于AI生成物本身的著作权问题

当企业利用AI生成技术创作营销资料、设计、报告等内容时,会遇到一个极其重要的问题:这些生成物是否具有著作权,如果有,归属于谁。这关系到企业是否能将其生成的内容作为知识产权进行保护,并防止他人未经授权的使用。

根据日本著作权法(日本法)第2条第1款第1项的定义,著作物是指“以创造性的方式表达思想或感情的作品,属于文学、学术、艺术或音乐范畴”。这一定义的核心前提是创作主体必须是人类。由于AI不是人类,因此在现行法律下,AI自主生成的内容不被认为AI本身拥有著作权。

因此,AI生成物是否被认可为拥有著作权,取决于其生成过程中“人类的创造性贡献”是否存在。只有当人类将AI作为一种“工具”使用,并且可以评价为以创造性的方式表达了其思想或感情时,才有可能将该人类视为著作物的作者并予以保护。

是否认可“创造性贡献”,取决于人类参与的程度。例如,如果仅仅输入了一个简单且通用的提示,如“被夕阳照耀的猫”,而AI自主决定了具体表达的大部分内容,那么人类的创造性贡献可能被认为是微乎其微的,生成物很可能不会被认定为具有著作物性。

另一方面,如果人类带着具体的创作意图,为了实现这一意图在提示中加入了许多详细的指令,并且经过多次尝试和错误来引出特定的表达,那么这一系列的指令和选择过程可能被评价为创造性行为,生成物可能会被认定为具有著作物性。此外,如果人类从AI生成的多个图像中进行选择和布局,并对其进行大量的加工和修正以完成一个作品,那么人类对于编辑和加工部分的创造性贡献将明确拥有著作权。

这为企业提供了重要的战略指导。为了利用AI创造有价值的知识产权,企业不仅要指示AI进行生成,还必须有意识地将人类的创造性参与融入过程中,并将其记录和文档化。详细的提示历史、生成结果的筛选过程以及人类后期加工的具体内容等记录,将成为未来主张和保护该内容著作权的重要证据。

在日本法律下企业面临的责任与法律措施

在使用生成AI时无意中侵犯了著作权,企业可能会面临严重的法律措施。著作权人可以依据日本著作权法和日本民法,采取多种有力的法律手段来保护自己的权利。

最直接的措施是民事诉讼。著作权人可以提出“禁止侵权请求”,要求停止或预防侵权行为。这将迫使企业立即停止使用侵权内容,并从网站上删除相关内容。此外,著作权人还可能对因侵权行为而遭受的损失提出“损害赔偿请求”。虽然损害赔偿的计算可能很复杂,但有时会基于企业因侵权获得的利益等因素,赔偿金额可能会非常高。如果侵犯了著作人格权,著作权人还可能要求采取“名誉恢复等措施”,例如发布道歉广告。

除了民事责任外,著作权侵犯还可能受到刑事处罚。在特别恶劣的情况下,权利人的告诉可能导致刑事案件的发展。个人可能面临10年以下的监禁或不超过1000万日元的罚款,但如果法人以业务方式进行侵权行为,该法人可能面临最高3亿日元以下的罚款,这是极其严重的处罚。

原则上,承担责任的主体是使用生成物的AI用户,即企业本身。然而,如果AI开发者提供的服务是设计成故意或高概率生成与特定著作物相似的内容,那么开发者也可能承担一部分责任,这是目前正在讨论的问题。

目前,在日本国内直接处理生成AI著作权问题的确切法律案例还很少。然而,已经出现了具体的争议,例如日本的一家大型报社因其付费文章被未经许可地用于学习和使用,而对海外的生成AI运营商提起了损害赔偿等诉讼。在这种司法判断尚未出现的情况下,企业在评估法律风险和决定应遵守的标准时,文化厅提出的官方观点和指导方针实际上具有极其重要的意义,成为事实上的行为规范。因此,企业的合规策略应以严格遵循这一行政机构的指导为基本原则。

总结

生成AI为企业带来了不可估量的利益,同时在日本著作权法下也伴随着重大的法律风险。日本的法律体系在促进AI发展的学习阶段提供了灵活的应对措施,而在使用生成物时则对用户施加了严格的著作权侵犯责任,形成了一种双重结构。深入理解这一结构是企业安全利用AI技术的关键。即使AI的学习数据是合法收集的,如果用户生成的内容与现有著作物相似,也可能面临严重的民事和刑事责任。企业必须采取积极具体的风险管理措施,如制定内部指导方针、引入人工彻底的审查流程,以及文档化创作过程以确保知识产权。

Monolith律师事务所在提供有关生成AI和著作权复杂法律问题的咨询方面,为日本国内众多客户积累了丰富的经验。我们的团队不仅拥有日本律师资格,还有能说英语的专家持有外国律师资格,能够为在日本开展国际业务的企业提供细致的支持,确保他们准确应对日本的法律体系。我们将提供专业的法律服务,包括就本文所述的问题提供咨询,以及支持构建具体的内部体系。

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

返回顶部