MONOLITH LAW OFFICE+81-3-6262-3248Dias da semana 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

General Corporate

Inteligência Artificial Gerativa e a Lei de Direitos Autorais no Japão: Um Guia de Riscos Legais para Empresas

General Corporate

Inteligência Artificial Gerativa e a Lei de Direitos Autorais no Japão: Um Guia de Riscos Legais para Empresas

A Inteligência Artificial gerativa tem o potencial de revolucionar todos os aspetos da gestão empresarial. Desde a criação de conteúdo até à investigação e desenvolvimento, passando pelo serviço ao cliente, a sua gama de aplicações está em constante expansão. No entanto, esta inovação tecnológica apresenta novos desafios legais para as empresas, especialmente em relação à Lei de Direitos Autorais do Japão. À medida que muitas empresas consideram ou avançam na adoção de IA gerativa, é essencial compreender e gerir com precisão os riscos de violação de direitos autorais que se escondem por trás da sua conveniência. A Lei de Direitos Autorais do Japão possui uma estrutura característica que aplica princípios legais diferentes nas fases de desenvolvimento e uso da IA, contribuindo para a sua complexidade. Entender esta estrutura dupla, que estabelece disposições relativamente tolerantes na fase de aprendizagem para promover o desenvolvimento da IA, enquanto impõe responsabilidades rigorosas aos utilizadores dos produtos gerados, é o primeiro passo na gestão de riscos. Este artigo explica sistematicamente os principais pontos legais trazidos pela IA gerativa no contexto da Lei de Direitos Autorais do Japão. Especificamente, abordaremos o tratamento legal na ‘fase de desenvolvimento e aprendizagem’ da IA, os riscos de violação de direitos autorais na ‘fase de geração e uso’ do conteúdo criado pela IA, a atribuição de direitos autorais dos produtos gerados pela IA e, no caso de uma violação ocorrer, as responsabilidades e medidas legais que as empresas devem tomar, tendo em conta a perspetiva da Agência de Assuntos Culturais do Japão, um órgão governamental japonês. Apresentaremos abordagens estratégicas que os executivos e profissionais jurídicos das empresas devem considerar.

Desenvolvimento de IA e a Fase de Aprendizagem sob a Lei de Direitos Autorais do Japão

Para que a IA gerada exiba capacidades avançadas, é necessário aprender com uma quantidade imensa de dados. Esses dados incluem uma variedade de obras protegidas por direitos autorais, como textos, imagens, música e códigos de programação. A Lei de Direitos Autorais do Japão facilita o uso dessas obras no desenvolvimento de IA, estabelecendo condições sob as quais a permissão do detentor dos direitos autorais não é necessária.

O cerne dessa regulamentação é o Artigo 30-4 da Lei de Direitos Autorais do Japão, introduzido pela emenda legal de 2018 (Heisei 30). Este artigo permite o uso de obras “não destinadas ao gozo das ideias ou sentimentos expressos”, sendo considerado uma das “disposições flexíveis de limitação de direitos”. O objetivo do aprendizado de IA não é para que humanos apreciem e desfrutem das obras (ou seja, “gozo”), mas sim para extrair e analisar padrões e estruturas contidos nos dados. Portanto, em princípio, os desenvolvedores de IA podem usar dados publicamente disponíveis na internet para aprendizado sem a necessidade de permissão dos detentores dos direitos autorais. Esta disposição é respaldada pela intenção política de promover a inovação tecnológica e a competitividade industrial do Japão.

Contudo, existem exceções importantes a este princípio. O Artigo 30-4 da Lei de Direitos Autorais do Japão estipula que “se o uso prejudicar injustamente os interesses do detentor dos direitos autorais, considerando o tipo e o propósito da obra e a maneira como é utilizada, então esta disposição não se aplica”. Determinar o que constitui um “prejuízo injusto” requer uma avaliação específica do caso, mas a Agência de Assuntos Culturais do Japão forneceu algumas diretrizes em seu documento “Considerações sobre IA e Direitos Autorais”.

Por exemplo, a utilização não autorizada de bases de dados de obras criadas e vendidas especificamente para fins de aprendizado de IA, sem pagamento, pode competir diretamente com o mercado do fornecedor da base de dados e prejudicar significativamente seus interesses. Além disso, ações que visam treinar a IA exclusivamente com as obras de um criador específico para gerar conteúdo que imita seu estilo podem desviar-se do propósito original “não destinado ao gozo” e ser consideradas como tendo um propósito de gozo concomitante. Além disso, coletar dados de materiais protegidos por direitos autorais, conhecidos como versões piratas, para treinar IA, mesmo sabendo que são ilícitos, também é visto como um problema por promover a violação de direitos.

O que esses exemplos ilustram é que a conformidade na fase de desenvolvimento de IA não é apenas uma questão de capacidade técnica para replicar dados, mas também exige um julgamento mais sofisticado sobre se a ação não prejudica economicamente os mercados existentes ou os interesses legítimos dos detentores de direitos. Quando as empresas desenvolvem IA ou terceirizam seu desenvolvimento, é necessário um devido cuidado diligente para garantir que a origem e o método de uso dos dados de aprendizado atendam a esses padrões legais e éticos.

Utilização de IA e o Risco de Violação de Direitos Autorais no Japão

Mesmo que o desenvolvimento e o treino de Inteligência Artificial (IA) sejam realizados de forma legal sob o Artigo 30-4 da Lei de Direitos Autorais do Japão, não há garantia de que o conteúdo gerado por essa IA não viole direitos autorais. A proteção legal é limitada à fase de aprendizagem, e na fase de geração e utilização, o usuário da IA assume diretamente o risco de ser responsabilizado por violação de direitos autorais.

Na jurisprudência japonesa, para que uma violação de direitos autorais seja estabelecida, geralmente são necessários dois requisitos: “similaridade” e “dependência”. Similaridade refere-se ao fato de que a obra subsequente é substancialmente semelhante à parte criativa da expressão de uma obra existente. A mera semelhança de ideias, estilo ou expressões comuns não é suficiente para reconhecer a similaridade. Dependência significa que a obra subsequente foi criada com base em uma obra existente, e se a obra foi criada acidentalmente sem conhecimento da obra existente, a dependência é negada.

No uso de IA gerativa, é plausível que o produto gerado seja semelhante a uma obra existente. O problema reside na avaliação da dependência. Se o usuário da IA estiver ciente de uma obra específica e der instruções (prompts) para reproduzi-la, a dependência é claramente reconhecida. No entanto, é mais complexo quando o usuário não conhece a obra específica, mas a IA gera algo semelhante porque a obra estava entre os dados de treino. Ainda não há um consenso legal sobre este ponto, mas há discussões de que a dependência pode ser inferida pelo fato de que a obra em questão estava incluída nos dados de treino da IA. Os dados de treino de um modelo de IA são frequentemente vastos e uma caixa preta, tornando praticamente impossível para o usuário compreender completamente o seu conteúdo. Isso representa um risco legal intrínseco e extremamente difícil de gerir para as empresas.

Como é impossível eliminar completamente esse risco, as empresas precisam gerir o risco e tomar medidas práticas para se prepararem para possíveis disputas. Primeiro, é crucial estabelecer diretrizes claras para o uso de IA gerativa internamente e garantir uma formação rigorosa dos funcionários. É necessário definir para que fins, quais ferramentas de IA podem ser usadas e como. Em segundo lugar, antes de publicar conteúdo gerado por IA, especialmente externamente, deve-se introduzir um processo de revisão e edição por humanos. Tratar o produto da IA como um rascunho e adicionar julgamento criativo humano ao produto final pode reduzir a semelhança com a obra original. Terceiro, é aconselhável manter registros do processo de geração tanto quanto possível. Registros de quais prompts foram usados para a geração podem ser um material valioso para demonstrar a ausência de intenção de violação, caso a dependência seja contestada.

Comparação dos Principais Pontos Legais entre IA e Direitos de Autor sob a Lei Japonesa

Os problemas legais em torno da Inteligência Artificial (IA) e dos direitos de autor variam significativamente conforme as fases do ciclo de vida da IA. A tabela abaixo compara e organiza os principais pontos legais nas fases de “desenvolvimento e aprendizagem” e “criação e utilização”. Através desta comparação, é possível compreender claramente como a localização da responsabilidade e a natureza dos riscos mudam.

Item de ComparaçãoFase de Desenvolvimento e AprendizagemFase de Criação e Utilização
Principais Leis RelacionadasArtigo 30-4 da Lei de Direitos de Autor do JapãoDireitos de reprodução e adaptação sob a Lei de Direitos de Autor do Japão
Problema Legal CentralO propósito de uso é “não para fruição” e prejudica “injustamente” os interesses do titular dos direitos de autor?O produto gerado é “semelhante” e “dependente” de uma obra existente?
Principal Entidade ResponsávelDesenvolvedores de IAUsuários de IA
Natureza do Risco LegalDefeitos legais no processo de desenvolvimento devido à coleta e aprendizagem ilegais de dadosResponsabilidade direta por infrações de direitos de autor devido à criação e divulgação não intencional de obras infratoras

Direitos de Autor de Conteúdos Gerados por IA Sob a Lei Japonesa

Quando as empresas utilizam IA para criar materiais de marketing, designs e relatórios, surge uma questão extremamente importante: “Será que esses conteúdos gerados têm direitos de autor e, se sim, a quem pertencem?” Esta questão é crucial porque determina se o conteúdo criado pela empresa pode ser protegido como propriedade intelectual e se o uso não autorizado por terceiros pode ser prevenido.

O Artigo 2, Parágrafo 1, Item 1 da Lei de Direitos de Autor do Japão define uma obra como “uma expressão criativa de pensamentos ou sentimentos que pertence ao domínio da literatura, ciência, arte ou música”. Esta definição pressupõe que o criador da obra seja humano. Como a IA não é humana, sob a lei atual, não é reconhecido que a IA possa ter direitos de autor como criadora de conteúdos gerados autonomamente.

Portanto, a questão de se os conteúdos gerados por IA podem ser protegidos por direitos de autor depende da existência de “contribuição criativa humana” no processo de geração. Apenas quando um humano usa a IA como uma “ferramenta” e se pode avaliar que expressou seus pensamentos ou sentimentos de forma criativa, é que essa pessoa pode ser considerada o autor e a obra pode ser protegida.

A existência de “contribuição criativa” é determinada pelo grau de envolvimento humano. Por exemplo, se uma pessoa simplesmente insere um prompt genérico como “um gato banhado pelo pôr do sol” e a IA determina autonomamente a maior parte da expressão específica, a contribuição criativa humana pode ser considerada insuficiente, e é provável que o conteúdo gerado não seja reconhecido como tendo direitos de autor.

Por outro lado, se uma pessoa tem uma intenção criativa específica e incorpora muitas instruções detalhadas no prompt, experimentando repetidamente para extrair uma expressão específica, todo o processo de instruções e escolhas pode ser avaliado como uma atividade criativa, e o conteúdo gerado pode ser reconhecido como tendo direitos de autor. Além disso, se uma pessoa seleciona e organiza várias imagens geradas pela IA e faz alterações e correções significativas para completar uma obra, a parte editada e processada criativamente pela pessoa terá claramente direitos de autor.

Isso oferece implicações estratégicas importantes para as empresas. Para criar propriedade intelectual valiosa usando IA, não basta simplesmente instruir a IA a gerar conteúdo; é essencial incorporar intencionalmente a contribuição criativa humana no processo e documentar isso. Manter registros do histórico de prompts detalhados, do processo de seleção dos resultados gerados e do conteúdo específico das edições e correções feitas por humanos é crucial para reivindicar e proteger os direitos de autor do conteúdo no futuro.

Responsabilidade e Medidas Legais que as Empresas Enfrentam no Japão

Se uma empresa, inadvertidamente, violar direitos autorais através do uso de Inteligência Artificial (IA) geradora, poderá enfrentar sérias medidas legais. No Japão, os detentores de direitos autorais têm à sua disposição múltiplos e poderosos recursos legais, com base na Lei de Direitos Autorais Japonesa e no Código Civil Japonês, para proteger seus direitos.

A medida mais direta é a reivindicação civil. Os detentores de direitos autorais podem solicitar uma “ordem de cessação” para interromper ou prevenir atos de infração. Isso pode forçar a empresa a cessar imediatamente o uso do conteúdo infrator e a remover tal conteúdo de seu website, entre outras ações. Além disso, a empresa pode ser sujeita a uma “reivindicação de indenização por danos” pelos prejuízos sofridos pelo detentor dos direitos autorais. O cálculo dos danos pode ser complexo e, em alguns casos, pode resultar em valores elevados, baseando-se nos lucros obtidos pela empresa através da infração. Se os direitos morais do autor forem violados, medidas como a publicação de um pedido de desculpas também podem ser exigidas como “medidas de restauração da honra”.

Além da responsabilidade civil, a violação de direitos autorais pode também ser sujeita a penalidades criminais. Em casos particularmente graves, a infração pode levar a um processo criminal após uma queixa do detentor dos direitos. Indivíduos podem enfrentar até 10 anos de prisão ou multas de até 10 milhões de ienes, enquanto que, se uma corporação cometer a infração como parte de suas operações, pode ser sujeita a multas de até 300 milhões de ienes, uma penalidade extremamente severa.

O principal responsável é, em princípio, o usuário da IA que utiliza a criação, ou seja, a própria empresa. No entanto, se o serviço fornecido pelo desenvolvedor da IA estiver projetado para gerar, intencionalmente ou com alta probabilidade, algo semelhante a uma obra protegida por direitos autorais, o desenvolvedor também pode ser considerado co-responsável devido a questões técnicas.

Atualmente, no Japão, há uma escassez de precedentes judiciais que tratem diretamente de questões de direitos autorais relacionadas à IA geradora. No entanto, já ocorreram disputas concretas, como quando um grande jornal japonês processou um operador de IA geradora estrangeiro por usar e aprender com seus artigos pagos sem autorização, buscando indenização por danos. Na ausência de decisões judiciais, as opiniões oficiais e diretrizes apresentadas pela Agência de Assuntos Culturais do Japão tornam-se extremamente importantes como um código de conduta de facto, ajudando as empresas a avaliar riscos legais e a determinar os padrões a serem seguidos. Portanto, a estratégia de compliance de uma empresa deve basear-se estritamente na orientação deste órgão regulador.

Conclusão

A inteligência artificial gerativa pode trazer benefícios incalculáveis para as empresas, mas também envolve riscos legais significativos sob a lei de direitos autorais do Japão. O sistema legal japonês possui uma estrutura dualista que permite uma abordagem flexível durante a fase de aprendizagem da IA para promover o desenvolvimento, enquanto impõe uma responsabilidade rigorosa por violação de direitos autorais aos usuários que utilizam os produtos gerados. Compreender profundamente esta estrutura é a chave para as empresas utilizarem com segurança a tecnologia de IA. Mesmo que os dados de treinamento da IA sejam coletados legalmente, se o conteúdo gerado pelo usuário for semelhante a obras existentes, podem surgir sérias responsabilidades civis e criminais. É essencial que as empresas adotem medidas proativas e concretas de gestão de riscos, como a elaboração de diretrizes internas, a implementação de um processo de revisão minucioso por humanos e a documentação do processo criativo para assegurar os direitos de propriedade intelectual.

A Monolith Law Office tem um histórico comprovado de fornecer aconselhamento abrangente a uma série de clientes no Japão sobre os complexos desafios legais que cercam a IA gerativa e os direitos autorais. Nossa firma conta com vários especialistas que são falantes de inglês e possuem qualificações de advogado tanto no Japão quanto no exterior, permitindo-nos oferecer suporte detalhado para empresas que operam internacionalmente e precisam navegar com precisão no sistema legal japonês. Estamos prontos para fornecer serviços legais especializados, como consultoria sobre questões como as discutidas neste artigo e assistência na construção de estruturas internas específicas.

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Retornar ao topo