MONOLITH LAW OFFICE+81-3-6262-3248Dias da semana 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Como prevenir mentiras e violações de direitos autorais pela IA? Regulamentos internos para o uso seguro de produtos gerados por IA

IT

Como prevenir mentiras e violações de direitos autorais pela IA? Regulamentos internos para o uso seguro de produtos gerados por IA

Conseguir transformar a IA numa força motriz para o negócio ou acabar por desencadear a deterioração da marca? Este ponto de inflexão reside na existência ou não de “regulamentos internos de IA” eficazes. Em particular, a violação de direitos de autor e a disseminação de informações erróneas devido a alucinações podem, uma vez ocorridas, não só resultar em sanções legais, mas também fazer com que a confiança acumulada dos clientes se perca instantaneamente.

Neste artigo, explicamos as diretrizes para estabelecer um sistema de conformidade e regulamentos que devem ser liderados agora para garantir uma operação segura de IA, mantendo a competitividade no negócio no contexto do sistema legal japonês.

As Armadilhas Ocultas na “Qualidade” e nos “Direitos” dos Produtos Gerados por IA no Japão

A IA generativa estabeleceu-se como uma ferramenta atraente que reduz significativamente o esforço necessário para criar algo do zero, aumentando dramaticamente a eficiência de tarefas criativas e administrativas. No entanto, por trás dessa conveniência, existem riscos legais fundamentalmente diferentes dos associados às ferramentas de TI tradicionais no Japão.

Os resultados produzidos pela IA generativa são derivados probabilisticamente com base em vastos dados de aprendizagem existentes, e devido ao processo de geração ser uma “caixa preta”, há sempre o risco de os utilizadores infringirem direitos de terceiros sem o saberem ou de espalharem informações falsas como se fossem verdadeiras.

No ambiente empresarial, a desculpa “foi a IA que criou” não é aceitável. As empresas que integram IA nas suas operações e os indivíduos que a utilizam são responsáveis legalmente pelos resultados gerados. Para evitar situações como difamação devido à disseminação de informações inadequadas ou reclamações de indemnização por violação de direitos autorais, é necessário que as organizações estabeleçam “barreiras de proteção” claras, em vez de deixarem a discrição ao critério individual. É imperativo desenvolver rapidamente regulamentos internos sólidos que, com base nas leis e diretrizes mais recentes, previnam tanto a violação de direitos autorais quanto a disseminação de informações erradas.

Risco 1: Como Evitar Tornar-se um Infrator de Direitos Autorais no Japão

Risco 1: Como Evitar Tornar-se um Infrator de Direitos Autorais no Japão

Ao utilizar a IA generativa nos negócios, o risco mais preocupante é infringir os direitos autorais de terceiros e ser responsabilizado legalmente sob a lei japonesa. A IA generativa, devido à sua natureza, tende a produzir conteúdos que refletem as características de obras existentes incluídas nos dados de aprendizagem. Compreender corretamente este processo e identificar claramente em que situações ocorre uma “infringência” é o primeiro passo para uma defesa eficaz.


O Mecanismo de Geração de IA e Direitos de Autor no Japão

A geração de IA extrai padrões de um vasto conjunto de dados aprendidos para criar novos conteúdos em resposta a instruções (prompts) inseridas. Durante este processo, a IA não compreende o “significado da informação”, mas apenas prevê a próxima palavra ou pixel com base em probabilidades estatísticas. Assim, pode ocorrer que conteúdos gerados se assemelhem a obras de criadores específicos ou a obras protegidas por direitos de autor, contrariando a intenção do utilizador.

De acordo com a “Perspectiva sobre IA e Direitos de Autor” publicada pela Agência de Assuntos Culturais do Japão, a avaliação de infrações de direitos de autor por obras geradas por IA é realizada sob o mesmo enquadramento que as obras tradicionais. Especificamente, a infração é estabelecida quando se reconhece “semelhança” e “dependência” em relação a obras existentes.

Referência: Agência de Assuntos Culturais|Sobre IA e Direitos de Autor


Os Dois Requisitos Principais para a Configuração de Infringimento: “Similaridade” e “Dependência”

A similaridade refere-se ao estado em que a saída gerada é idêntica ou compartilha características essenciais com a expressão criativa de uma obra existente. Por outro lado, a dependência significa que a obra foi criada “com base” em uma obra existente. No caso tradicional de violação de direitos autorais sob a lei japonesa, o foco era se o criador havia visto a obra em questão. No entanto, no caso de IA gerativa, torna-se crucial determinar se a obra estava incluída nos dados de aprendizagem da IA.

Um problema particularmente relevante é que, mesmo que o utilizador não conheça a obra existente, a dependência pode ser reconhecida se a IA a tiver aprendido. Este é conhecido como o “problema da caixa preta”. Segundo a Agência de Assuntos Culturais do Japão, mesmo que o conteúdo dos dados de aprendizagem seja desconhecido, se a IA tiver aprendido amplamente informações disponíveis na internet e o produto gerado for notavelmente semelhante a uma obra existente, a dependência tende a ser presumida.

Referência: Agência de Assuntos Culturais do Japão|Seminário de Direitos Autorais do Ano Fiscal de Reiwa 5 (2023) IA e Direitos Autorais (P48)


Alcance e Limitações das Disposições de Restrição de Direitos (Artigo 30-4)

O Artigo 30-4 da Lei de Direitos Autorais do Japão estabelece que, durante a fase de aprendizagem de IA, é possível utilizar obras expressando ideias ou emoções sem a permissão do titular dos direitos autorais, desde que o objetivo não seja “apreciar” essas obras. Esta disposição reconhece amplamente o uso para fins de análise de informação, não para apreciação, e constitui uma base legal importante que apoia o desenvolvimento de IA no Japão.

No entanto, esta disposição aplica-se exclusivamente à “aprendizagem” e não à fase de “utilização” dos resultados gerados. Além disso, é importante notar que, ao realizar aprendizagem adicional (como LoRA) com o objetivo de replicar o estilo de um criador específico, pode-se considerar que o objetivo de “apreciação” está presente, o que pode excluir a aplicação do Artigo 30-4.


Medidas nas Normas Internas de IA: Seleção de Prompts e Serviços

Nas normas internas de IA, é eficaz estabelecer restrições na fase de entrada para minimizar o risco de dependência. Especificamente, deve-se proibir, em princípio, a inclusão de nomes de artistas específicos ou títulos de obras concretas nos prompts. Além disso, para funcionalidades como Image-to-Image (i2i), que geram imagens a partir de uploads de imagens existentes, é necessário garantir que a operação seja limitada a imagens sobre as quais a empresa detém direitos ou materiais com relações de direitos claramente definidas.

Além disso, a seleção dos serviços de IA a serem utilizados é crucial. Alguns planos pagos oferecem “isenção de direitos autorais” para cobrir riscos de violação de direitos autorais, mas é recomendável incluir no regulamento um processo para examinar as condições de aplicação e selecionar aqueles que atendem aos padrões de segurança internos.

A tabela a seguir resume os pontos de verificação que devem ser organizados nas normas internas para evitar violações de direitos autorais.

Ponto de VerificaçãoDireção Específica do RegulamentoPonto de Vista Fundamentador
Entrada de PromptProibição de entrada de nomes de autores ou obras específicas, nomes própriosPara evitar que se tornem provas diretas de dependência
Aprendizagem Adicional (LoRA, etc.)Restrição de aprendizagem com o objetivo de reproduzir o estilo de direitos específicosEvitar o risco de violação de direitos devido à coexistência de objetivos de usufruto
Uso de Imagens ExternasLimitar a materiais sobre os quais a empresa detém direitos ou que possuem licença adquiridaPara bloquear a ocorrência de dependência na função i2i
Seleção de ServiçosAdoção de planos com possibilidade de uso comercial e alta transparência nas relações de direitosVerificação do cumprimento dos termos de uso e do sistema de compensação do fornecedor de IA

 


Risco 2: Atribuição de “Direitos Autorais” a Produtos Gerados por IA no Japão (Para Evitar Ser uma Vítima)

Ao implementar a IA para criar produtos, é crucial considerar se é possível reivindicar os direitos da sua empresa caso esses produtos sejam utilizados por outras empresas sem autorização. Sob a interpretação atual da lei japonesa, existe o princípio de que produtos gerados autonomamente por IA não recebem direitos autorais. Para que as empresas assegurem os direitos sobre os produtos gerados e os protejam como propriedade intelectual, é necessário cumprir certas condições.


Definição de “Obra” e o Limite de Criatividade sob a Lei Japonesa

De acordo com o Artigo 2, Parágrafo 1, Inciso 1 da Lei de Direitos Autorais do Japão, uma obra é definida como algo que expressa criativamente “ideias ou sentimentos”. Como a inteligência artificial (IA) é uma máquina que não possui “ideias” nem “sentimentos”, o conteúdo gerado automaticamente por IA não é reconhecido como uma obra. Portanto, os resultados obtidos apenas através da inserção de um breve comando em uma IA, geralmente, não são considerados como tendo “contribuição criativa” e, legalmente, não são protegidos, ficando em um estado que permite a sua utilização livre por qualquer pessoa (semelhante ao domínio público).

Para que uma obra seja reconhecida, é necessário que um ser humano utilize a IA como uma “ferramenta” e que lhe seja reconhecida “intenção criativa” e “contribuição criativa”. O ponto crucial para a geração de direitos é se o ser humano controla substancialmente o conteúdo da expressão, indo além de simples instruções.


Utilização como “Ferramenta” para Garantir Direitos

Para determinar quais ações podem ser reconhecidas como contribuições criativas sob a legislação japonesa, são considerados os seguintes fatores de forma abrangente. Primeiro, o conteúdo do prompt deve ser específico e detalhado. Em vez de simplesmente solicitar “um desenho de um gato”, é necessário especificar minuciosamente a composição, o uso de cores, o estilo de pincelada, entre outros, e refinar a expressão ideal através de um processo de tentativa e erro. Em seguida, é importante que humanos façam adições ou correções ao output gerado pela IA, ou que combinem múltiplos produtos gerados para criar uma nova composição. Normalmente, a parte em que o humano interveio é reconhecida como tendo originalidade de obra.

Para as empresas no Japão, é aconselhável estabelecer um fluxo de operação que preserve o processo de geração (como o histórico de prompts e os registros de correções) para poder se defender contra imitações por outras empresas. Isso é especialmente relevante quando se trata de produtos gerados por IA no âmbito das práticas empresariais japonesas.


Atribuição de Direitos de Produtos Gerados por IA no Âmbito de Trabalho no Japão

Quando um empregado utiliza inteligência artificial (IA) no desempenho das suas funções e contribui criativamente para completar uma obra, a quem pertencem esses direitos? De acordo com o Artigo 15 da Lei de Direitos Autorais do Japão (Obras Criadas no Âmbito de Trabalho), o autor de uma obra criada por um empregado no exercício das suas funções, com base na iniciativa de uma entidade jurídica e publicada em nome dessa entidade, será, salvo disposição em contrário, essa mesma entidade.

Mesmo quando se utiliza IA, se houver uma contribuição criativa humana, este enquadramento de obras criadas no âmbito de trabalho pode ser aplicado. No entanto, para as partes geradas autonomamente pela IA, onde não há contribuição criativa humana, não se aplica o direito de autor, ficando fora do âmbito do Artigo 15. É importante que os regulamentos internos da empresa especifiquem que os direitos sobre produtos gerados por IA pertencem à empresa e incluam cláusulas que incentivem operações com contribuição criativa.

A tabela abaixo mostra os elementos e pontos de avaliação para reconhecer a originalidade de produtos gerados por IA.

Elemento de AvaliaçãoCasos em que a Originalidade é Facilmente ReconhecidaCasos em que a Originalidade é Facilmente Negada
Natureza do PromptInstruções detalhadas e específicas, especificação de detalhes de expressãoInstruções curtas e abstratas, apenas apresentação de ideias
Processo de Tentativa e ErroGeração e seleção múltiplas vezes, repetição de ajustes nas instruçõesAdoção direta após uma única geração
Processamento HumanoAdições diretas, correções, alterações de cor no produto geradoUso direto da saída da IA sem qualquer processamento
Composição e SeleçãoCombinação e disposição únicas de múltiplos produtos geradosApresentação de um único produto gerado

 


Risco 3: Defesa Legal Contra Alucinações (Mentiras de IA) no Japão

Risco 3: Defesa Legal Contra Alucinações (Mentiras de IA) no Japão

Um dos problemas técnicos significativos enfrentados pela IA generativa é a alucinação. Este fenômeno ocorre quando a IA gera mentiras plausíveis, o que, no contexto de uso empresarial, pode levar a situações graves, como difamação devido à disseminação de informações incorretas ou decisões baseadas em dados errados.


A Verdadeira Natureza das Alucinações e os Danos Reais nos Negócios no Japão

As alucinações ocorrem porque a inteligência artificial não verifica a veracidade, mas sim busca a correção probabilística da sequência de palavras. Isso pode levar à criação de precedentes inexistentes ou ao relato de eventos fictícios como se fossem fatos. Nos Estados Unidos, houve casos relatados em que documentos criados por advogados utilizando IA gerativa continham precedentes fictícios, causando grandes problemas nos tribunais.

Nas atividades empresariais no Japão, ao divulgar informações que contêm alucinações, surgem os seguintes riscos legais: Primeiro, se o conteúdo prejudicar a honra de indivíduos ou entidades específicas, pode haver responsabilidade por danos devido a difamação. Em seguida, se decisões de investimento forem feitas com base em dados de mercado ou previsões financeiras incorretas, isso pode constituir uma violação do dever de cuidado do gestor diligente (善管注意義務). Além disso, ao apresentar especificações de produtos ou interpretações legais incorretas aos clientes, pode-se incorrer em responsabilidade por inadimplemento contratual ou ser acusado de obstrução de negócios.


Medidas Técnicas: Utilização de RAG (Geração Aumentada por Recuperação)

Como uma medida de defesa técnica, a implementação de RAG (Geração Aumentada por Recuperação) é eficaz. Esta técnica permite que a IA, ao gerar respostas, consulte documentos precisos e bases de dados confiáveis previamente preparados pela própria empresa, em vez de informações externas e indeterminadas. Com isso, torna-se possível esclarecer a base das respostas e reduzir significativamente o risco de alucinações.

No entanto, a introdução de RAG não elimina a necessidade de verificação humana. Ainda existe a possibilidade de a IA interpretar incorretamente os materiais de referência ou realizar resumos incompletos.


Medidas Operacionais: Obrigatoriedade de Fact-Checking

O mais importante nas normas internas é não aceitar cegamente as saídas de IA, mas sim tornar obrigatório o “fact-checking” (verificação de veracidade) por humanos como parte do processo. As diretrizes para operadores de IA, estabelecidas pelo Ministério da Economia, Comércio e Indústria e pelo Ministério dos Assuntos Internos e Comunicações do Japão, também afirmam que os utilizadores de IA devem compreender a precisão dos resultados e tomar decisões de utilização de forma responsável.

Referência: Diretrizes para Operadores de IA do Ministério da Economia, Comércio e Indústria do Japão

Especificamente, deve-se estabelecer um fluxo que obrigue a confrontação dos factos e números apresentados pela IA com informações primárias, como sites oficiais de agências governamentais, estatísticas públicas e comunicados oficiais. Em particular, para documentos divulgados externamente, materiais relacionados a transações de alto valor e documentos com força legal, deve-se incorporar nos regulamentos um rigoroso sistema de verificação dupla, reconhecendo que são produtos gerados por IA.


Exemplo de Regulamento Interno para Gestão de Direitos e Autenticidade de IA

Com base na análise de risco até agora, apresentamos exemplos de cláusulas específicas que devem ser incluídas nos regulamentos internos. Ao definir não apenas “proibições”, mas também o “processo de utilização”, os regulamentos servem como diretrizes para que os funcionários possam utilizar a IA de forma segura.

Proibições ao Inserir Prompts (Relacionado a Direitos Autorais e Segurança)

Exemplo de regulamento:

    1. Os utilizadores não devem inserir nomes de indivíduos específicos, celebridades ou artistas nos prompts para a IA geradora, nem dar instruções para imitar o estilo ou características desses indivíduos.

    1. Quando se insere obras existentes, como imagens, documentos ou códigos-fonte, para adaptação ou modificação, isso só é permitido se a empresa for a legítima detentora dos direitos dessas obras ou tiver obtido permissão para o uso da IA.

    1. É estritamente proibido inserir informações confidenciais da empresa, informações pessoais ou obras não divulgadas de terceiros em serviços que possam ser utilizados como dados de aprendizagem.

 

Processo de Utilização de Produtos Gerados por IA (Verificação de Precisão e Similaridade)

Exemplo de regulamento:

    1. Ao utilizar produtos gerados por IA em materiais externos, comunicações, produtos, serviços, etc., o responsável deve verificar, através de meios objetivos como pesquisa de imagens no Google ou ferramentas comerciais de verificação de plágio, se não há semelhança com obras existentes.

    1. Informações geradas por IA, incluindo fatos, números, contexto histórico, interpretações legais, etc., devem ser sempre comparadas com informações primárias confiáveis (dados públicos, documentos oficiais, etc.) e a sua veracidade deve ser confirmada por um humano antes de serem utilizadas.

    1. Quando se utiliza produtos gerados por IA para decisões importantes, o processo de geração (prompts utilizados, fontes verificadas) deve ser registrado e a aprovação de um superior ou departamento especializado deve ser obtida.

 

Fluxo de Reconfirmação de Termos para Uso Comercial

Exemplo de regulamento:

    1. Ao utilizar serviços de IA geradora para fins comerciais ou de distribuição externa, o responsável deve verificar os termos de uso mais recentes do serviço e confirmar antecipadamente se não há problemas quanto à possibilidade de uso comercial e à titularidade dos direitos sobre os produtos gerados.

    1. Se o fornecedor do serviço alterar os termos de uso, o conteúdo deve ser imediatamente analisado e a conformidade com os regulamentos internos deve ser reavaliada.

 

Conclusão: Consulte um Advogado para Estabelecer Regulamentos Internos sobre IA nas Empresas no Japão

A inteligência artificial generativa, quando controlada corretamente, pode ser um “assistente excelente” que potencializa a criatividade humana e eleva a produtividade das operações a níveis extraordinários. No entanto, esse assistente também pode, por vezes, infringir direitos de autor de terceiros e propagar informações falsas plausíveis, colocando a organização em situações difíceis. Os riscos detalhados neste artigo não visam restringir o uso da IA, mas sim compreender corretamente a natureza desses riscos e estabelecer “barreiras de proteção” adequadas para permitir que se acelere ao máximo.

Para as empresas no Japão, a construção de uma governança de IA não é mais uma opção, mas uma condição essencial para uma gestão sustentável. Estabelecer regulamentos internos que reflitam a Lei de Direitos Autorais do Japão, as diretrizes para operadores de IA e as opiniões mais recentes da Agência de Assuntos Culturais, além de implementar um sistema “Human-in-the-loop” onde os humanos assumem a responsabilidade final, determinará o sucesso ou fracasso dos negócios na era da IA.

Orientações Sobre as Medidas do Nosso Escritório

O Escritório de Advocacia Monolith é uma firma com vasta experiência tanto em TI quanto em direito, especialmente no que diz respeito à Internet. No Japão, os negócios de IA apresentam muitos riscos legais, tornando essencial o suporte de advogados familiarizados com questões legais relacionadas à IA. Nosso escritório oferece suporte jurídico avançado para negócios de IA que utilizam ferramentas como o ChatGPT, através de uma equipe composta por advogados e engenheiros especializados em IA. Oferecemos serviços como elaboração de contratos, análise da conformidade dos modelos de negócios, proteção de direitos de propriedade intelectual, adequação à privacidade e desenvolvimento de regulamentos internos de IA. Detalhes adicionais estão disponíveis no artigo abaixo.

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Retornar ao topo