Qual é o estado atual das leis que regulam a IA? Comparação entre o Japão e a UE e pontos de ação explicados
Os AI geradores, como o ChatGPT, tornaram-se uma grande tendência. Agora, esses AI geradores estão sendo incorporados no cenário empresarial, sendo chamados de os catalisadores da “quarta onda de boom da AI”. Em consonância, esforços para estabelecer um quadro legal para a regulação da AI a nível global estão a avançar.
Neste artigo, abordaremos as leis relacionadas com a AI, explicando a gestão adequada de informações confidenciais, como direitos de propriedade intelectual e dados pessoais.
Definição e História da IA (Inteligência Artificial)
A IA (Inteligência Artificial) refere-se à capacidade de sistemas computacionais emularem funções intelectuais como raciocínio e julgamento. Legalmente, não existe uma definição precisa, havendo várias definições propostas. Seguem alguns exemplos.
Fonte | Definição/Explicação |
「Kōjien」 | Um sistema de computador equipado com funções intelectuais como inferência e julgamento. |
「Enciclopédia Britânica」 | Ciência e Tecnologia > Computadores e IA. A capacidade de computadores digitais ou robôs computadorizados realizarem tarefas relacionadas a seres inteligentes. |
Artigo da Sociedade Japonesa de Inteligência Artificial 「AI como Conhecimento Cultural」 | A resposta à pergunta “O que é IA?” não é simples. Mesmo entre especialistas em IA, há um grande debate, o que por si só poderia preencher um livro inteiro devido às diferentes perspectivas. Em resumo, pode-se dizer que é a tecnologia que realiza tarefas intelectuais humanas através da engenharia mecânica. |
Artigo acadêmico 「Aprendizagem Profunda e Inteligência Artificial」 | A IA é um campo de estudo que tenta explicar mecanicamente como funciona a inteligência humana. |
Artigo acadêmico 「Buscando a Forma Ideal da Sociedade de Inteligência Artificial」 | A IA e outras tecnologias de informação são, acima de tudo, ferramentas. |
A IA é descrita como um conjunto de tecnologias, softwares, sistemas de computador e algoritmos que reproduzem a capacidade intelectual humana em computadores.
Como exemplos de IA especializada, podemos citar:
- Processamento de linguagem natural (tradução automática, análise sintática, análise morfológica, RNN, etc.)
- Sistemas de especialistas que imitam o raciocínio e julgamento de especialistas
- Reconhecimento de imagem e de voz, que detectam e extraem padrões específicos a partir de dados
O campo da IA tem sido objeto de pesquisa e desenvolvimento desde a década de 1950, o início da era dos computadores. O primeiro boom da IA ocorreu até a década de 1970 com pesquisas sobre “busca e inferência”, seguido pelo segundo boom na década de 1980 com pesquisas sobre “representação do conhecimento”, que levou ao surgimento de sistemas de especialistas, marcando duas ondas de entusiasmo pela IA.
Desde a década de 2000, com o surgimento de big data e, após 2012, com a introdução do Alexnet, a utilidade da aprendizagem profunda (deep learning) em processamento de imagens foi reconhecida mundialmente, acelerando rapidamente a pesquisa e dando início ao terceiro boom da IA.
Entre 2016 e 2017, surgiram IAs que incorporam aprendizagem profunda e aprendizagem por reforço (Q-learning, método do gradiente de política), marcando uma nova era.
O terceiro boom da IA é notável principalmente pelos avanços no processamento de linguagem natural e processamento de imagens por sensores, mas também tem impactado significativamente áreas como desenvolvimento tecnológico, sociologia, ética e economia.
Em 30 de novembro de 2022, o lançamento do ChatGPT pela OpenAI, uma IA de processamento de linguagem natural, chamou a atenção como uma ferramenta versátil, impulsionando o negócio de IA generativa. Algumas pessoas referem-se a este fenômeno social como o quarto boom da IA.
Cenários empresariais onde é crucial verificar a legislação sobre IA
A IA generativa, uma forma de Inteligência Artificial, é uma ferramenta útil que, por outro lado, pode espalhar desinformação, facilitar crimes e, por vezes, ameaçar a democracia com os riscos que comporta.
Os riscos associados à IA tornaram-se agora desafios incontornáveis. Assim, explicaremos os cenários empresariais em que é necessário verificar a regulamentação legal, tanto do ponto de vista dos utilizadores como dos fornecedores.
Uso de IA para geração de texto
Desde o lançamento do ChatGPT em novembro de 2022, a IA de geração de texto tem recebido atenção mundial como uma ferramenta versátil capaz de lidar com pedidos complexos, prometendo eficiência no trabalho e uma excelente relação custo-benefício.
Por outro lado, os riscos associados ao uso de IA de geração de texto também se tornaram conhecidos. É essencial estar ciente de quais riscos existem e quais leis devem ser cumpridas para evitar esses riscos potenciais.
O ChatGPT, representante da IA de geração de texto, apresenta o risco de vazamento de informações (prompts) inseridas pelos utilizadores se nenhuma medida for tomada. Devido à sua capacidade de coletar, armazenar e utilizar prompts, existe o risco de vazamento de informações confidenciais pessoais, empresariais e informações secretas obtidas através de acordos de não divulgação (NDA).
Além disso, o ChatGPT pode gerar e disseminar desinformação (alucinações), correndo o risco de violação de direitos autorais, entre outros. Portanto, é indispensável verificar os fatos do conteúdo gerado.
Uso de IA para geração de imagens
Ao utilizar IA para geração de imagens em negócios, é crucial ter em mente o risco de violação de direitos autorais.
Segundo a OpenAI, os direitos autorais de imagens e textos gerados pelo ChatGPT pertencem, em princípio, ao utilizador que os gerou. Os utilizadores podem usar o ChatGPT para qualquer finalidade, incluindo uso comercial.
Contudo, é necessário prestar atenção aos seguintes pontos:
Os dados de treinamento do ChatGPT incluem uma vasta quantidade de conteúdos disponíveis na internet, a maioria dos quais são obras protegidas por direitos autorais (textos, imagens, música, vídeos, etc.). Portanto, o conteúdo gerado pode violar os direitos autorais de terceiros.
Desenvolvimento de IA e fornecimento de serviços de IA generativa
O negócio de IA está sujeito a várias leis, e a criação de um quadro legal internacional está em andamento, exigindo uma abordagem flexível para cumprir as leis existentes e adaptar-se às novas legislações.
No próximo capítulo, explicaremos as leis relacionadas à IA no Japão e a ‘Lei de Regulação da IA’ da UE, a primeira legislação internacional sobre IA, promulgada em dezembro de 2023.
Leis Japonesas sobre IA
Atualmente, no Japão, a IA não é regulamentada por leis com força coerciva, adotando-se antes uma política de autorregulação. Aqui, explicaremos as leis atuais que devem ser observadas ao utilizar a IA.
Referência: Ministério da Economia, Comércio e Indústria | “Diretrizes de Governança para a Prática dos Princípios da IA ver. 1.1″[ja]
Lei de Direitos Autorais
Em janeiro de 2019 (Era Heisei 31), a “Lei de Direitos Autorais Revisada” introduziu uma nova disposição sobre limitações de direitos (exceções que não requerem autorização) para “análise de informação” (Artigo 30, Parágrafo 4, Item 2 da mesma lei). Atividades que utilizam obras protegidas por direitos autorais, não com o objetivo de desfrutar das ideias ou emoções expressas, como análise de informação no desenvolvimento e aprendizado de IA, podem agora ser realizadas sem a necessidade de permissão do detentor dos direitos autorais.
Esta revisão esclareceu que o aprendizado de máquina, incluindo o deep learning da IA, está incluído na definição de “análise de informação”.
Quando se utiliza a análise de informação (extrair informações relacionadas à linguagem, som, imagem e outros elementos de um grande volume de obras protegidas por direitos autorais ou outras informações, e realizar comparação, classificação ou outra análise dessas informações)
Artigo 30, Parágrafo 4, Item 2 da Lei de Direitos Autorais
Por outro lado, é necessário ter cuidado, pois obras criadas utilizando IA que apresentem semelhança ou dependência de outras obras protegidas por direitos autorais podem ser consideradas violações de direitos autorais.
Além disso, ao inserir obras protegidas por direitos autorais como prompts no ChatGPT, pode haver uma violação dos direitos de reprodução, entre outros. Se modificar obras de terceiros utilizando IA generativa, também pode haver uma violação dos direitos de adaptação.
De acordo com os termos de uso da OpenAI, os direitos sobre o conteúdo criado pelo ChatGPT pertencem ao usuário, e seu uso comercial é permitido. No entanto, em casos em que é difícil determinar se o conteúdo viola direitos autorais, recomenda-se consultar um especialista.
Caso seja acusado de violação de direitos autorais pelo detentor dos direitos, pode ser responsabilizado civilmente (com medidas legais como cessação de uso, indenização por danos, compensação por danos morais, restauração da honra, etc.) ou criminalmente.
Lei de Prevenção da Concorrência Desleal
Em 1 de julho de 2019 (Era Heisei 31), a Lei de Prevenção da Concorrência Desleal foi revisada. Antes dessa revisão, era difícil prevenir a concorrência desleal para itens que não eram protegidos pela Lei de Patentes ou pela Lei de Direitos Autorais, ou que não se enquadravam no conceito de “segredos comerciais” sob a Lei de Prevenção da Concorrência Desleal.
Com esta revisão, foram estabelecidas medidas civis (direito de exigir cessação, estimativa de indenização por danos, etc.) contra atos maliciosos, como a aquisição ou uso indevido de dados de valor limitado.
Leis da UE sobre a Utilização de IA
O sistema jurídico da UE é composto por três partes: o direito primário (tratados), o direito secundário (legislação da UE) e a jurisprudência. O direito secundário, baseado nos tratados (direito primário), consiste em legislação que vincula diretamente ou indiretamente os Estados-membros dentro da UE, sendo chamado de direito derivado da UE. Existem cinco tipos principais de direito secundário, mas a “Lei de Regulação de IA” da UE é classificada como um regulamento, o que significa que é uma regra unificada que vincula diretamente todos os Estados-membros da UE.
Por outro lado, uma diretiva é algo que obriga os Estados-membros da UE a implementar o conteúdo da diretiva no direito nacional, seja através da criação de nova legislação ou da alteração da legislação existente, impondo assim uma obrigação legal indireta. O prazo para isso é, geralmente, dentro de três anos após a publicação no Jornal Oficial da UE.
Artigos relacionados: Imprescindível para empresas que se expandem para a Europa: Pontos-chave sobre o sistema jurídico e as leis da UE[ja]
Neste capítulo, explicaremos as últimas tendências relacionadas à regulamentação legal do uso de IA na UE, focando nas “diretivas” e “regulamentos”.
Proposta de Diretiva sobre a Responsabilidade da IA
A 28 de setembro de 2022, a Comissão Europeia publicou a “Proposta de Diretiva sobre a Responsabilidade da IA” juntamente com uma proposta de revisão da “Diretiva sobre a Responsabilidade do Produtor”. Estabelece regras sobre a responsabilidade legal dos negócios de IA na UE (União Europeia) em conformidade com a “Lei de Regulação da IA” japonesa, tornando-se um quadro legal importante. Como será abrangida pela “Diretiva de Ações Coletivas” da UE, que entra em vigor em junho de 2023, as empresas japonesas relacionadas também precisarão entender o seu conteúdo.
Representa uma mudança significativa nas regras legais de responsabilidade civil para software, incluindo sistemas de IA na UE, adequadas para a economia circular da era digital e cadeias de valor globais.
Artigo relacionado: Qual é o estado atual e as perspectivas da Lei de Regulação da IA na UE? Impacto nas empresas japonesas explicado[ja]
O objetivo da “Proposta de Diretiva sobre a Responsabilidade da IA” é estabelecer regras para a responsabilidade civil baseada em causas extracontratuais para danos causados por sistemas de IA, visando melhorar o funcionamento do mercado interno da UE.
Isso significa que a responsabilidade contratual (responsabilidade por inadimplemento e responsabilidade por não conformidade contratual) não é abrangida, e a responsabilidade por danos baseada em negligência (como responsabilidade por atos ilícitos) não se limita apenas aos casos decorrentes de segurança insuficiente abrangidos pela “Diretiva sobre a Responsabilidade do Produtor”.
Por exemplo, danos causados por sistemas de seleção de IA, como discriminação, também são considerados abrangidos.
A proposta visa abordar o problema da caixa-preta da IA, introduzindo medidas de alívio do ônus da prova para os operadores que desenvolvem “sistemas de IA de alto risco” conforme definido na “Lei de Regulação da IA” japonesa, incluindo a “presunção de causalidade” e um “sistema de divulgação de provas”.
Se não cumprir com uma ordem de divulgação de provas, a “Proposta de Diretiva sobre a Responsabilidade da IA” impõe a obrigação de presumir a violação do dever de cuidado e a causalidade, enquanto a proposta de revisão da “Diretiva sobre a Responsabilidade do Produtor” presume o defeito e a causalidade, impondo penalidades mais severas do que a lei de processo civil japonesa para garantir a conformidade.
A proposta está limitada, como primeira fase, à desobstrução da caixa-preta da IA e às medidas de alívio do ônus da prova associadas, estabelecendo novos requisitos para a qualificação do autor, divulgação de provas, preservação de provas e presunção de causalidade.
A segunda fase envolve a revisão e avaliação. A Comissão Europeia estabelecerá um programa de monitorização para rever as informações sobre incidentes, avaliar a adequação e a necessidade de impor responsabilidade sem culpa (responsabilidade estrita) aos operadores de sistemas de IA de alto risco e a necessidade de introduzir seguros obrigatórios, entre outras medidas, e reportará ao Conselho Europeu e ao Parlamento Europeu.
Proposta de Revisão da Diretiva de Responsabilidade pelo Produto
A “Diretiva de Responsabilidade pelo Produto”, estabelecida em 1985, é uma lei da UE que protege os consumidores, estipulando a responsabilidade dos fabricantes em casos de danos causados por produtos defeituosos.
Na proposta de revisão, o âmbito de aplicação da responsabilidade pelo produto é expandido para incluir “software” como um “produto”, aplicando-se a responsabilidade sem culpa aos operadores de sistemas de IA se estes apresentarem “defeitos”. Além disso, a capacidade de aprendizagem contínua após a instalação e as atualizações de software são agora critérios adicionados para determinar a presença de “defeitos”.
Na legislação japonesa atual, a “Lei Japonesa de Responsabilidade pelo Produto”, geralmente não se considera o software como um bem móvel, portanto, não se enquadra na categoria de “produto” aplicável pela lei. No entanto, esta revisão propõe uma mudança na concepção de “produto”. A proposta também introduz “medidas de alívio do ônus da prova”, o que pode ter um impacto significativo no software, incluindo sistemas de IA e produtos de tecnologia avançada.
Lei de Regulação da IA
A “Lei de Regulação da IA (AI Act)” é uma regra unificada da UE, uma legislação secundária, que visa o negócio de IA, composta por 85 artigos e representa a primeira lei internacional a regular a IA no mundo. Foi estabelecida após um acordo provisório entre a Comissão Europeia, o Parlamento Europeu e o Conselho Europeu em 9 de dezembro de 2023, e espera-se que entre em vigor e seja totalmente implementada em 2024.
Esta lei é um pilar da estratégia digital da UE conhecida como “A Europe fit for the Digital Age” (Uma Europa adequada para a Era Digital), visando abordar os novos desafios e riscos da era digital em evolução. Garante a segurança da IA e os direitos fundamentais, e faz parte de um amplo pacote de IA que visa reforçar o compromisso com a IA, o investimento e a inovação em toda a UE.
A “Lei de Regulação da IA” da UE aplica-se diretamente aos Estados-Membros da UE, bem como tem aplicação extraterritorial, afetando empresas que operam dentro da UE e também aquelas localizadas fora da UE.
Em caso de violação, podem ser impostas sanções substanciais baseadas no volume de negócios global (até 30 milhões de euros ou cerca de 47 bilhões de ienes ou 6% do volume de negócios global, o que for maior), o que pode resultar na impossibilidade de realizar negócios de IA dentro da UE.
Portanto, empresas que já implementaram IA nos mercados da UE, incluindo empresas japonesas, ou que estão considerando entrar nos mercados da UE no futuro, precisarão conformar-se com a nova regulamentação de IA da UE.
Os principais pontos da “Lei de Regulação da IA” dividem-se em três características: “classificação baseada em risco da IA”, “requisitos e obrigações” e “apoio à inovação”.
Os alvos regulatórios são as empresas que introduzem sistemas e serviços de IA no mercado europeu, incluindo desenvolvedores, implementadores, fornecedores, importadores, distribuidores e usuários de IA.
O nível de risco da IA é categorizado em quatro níveis, com regulamentações aplicáveis de acordo com cada nível. Para alcançar os princípios da IA, é essencial garantir a literacia em IA dos desenvolvedores, usuários e fornecedores de IA, conforme claramente indicado nas diretrizes. Para mais detalhes, consulte o artigo relacionado.
Artigo relacionado: Qual é o estado atual e as perspectivas da Lei de Regulação da IA na UE? Impacto nas empresas japonesas explicado[ja]
Pontos a considerar na legislação sobre IA
Neste capítulo, explicaremos principalmente os pontos a serem considerados do ponto de vista legal quando as empresas pretendem utilizar IA gerativa.
Sobre os direitos autorais de obras criadas por IA
Quanto às obras criadas por IA gerativa, os seguintes pontos legais devem ser considerados:
- Se a obra viola direitos autorais existentes
- Se as obras criadas por IA gerativa podem ser reconhecidas com direitos autorais
Como mencionado anteriormente, se as obras criadas pelo ChatGPT apresentarem semelhança ou dependência de obras protegidas por direitos autorais, isso pode constituir uma violação de direitos autorais. Por outro lado, as obras criadas por IA gerativa podem ser reconhecidas com direitos autorais?
De acordo com a Lei de Direitos Autorais Japonesa, uma “obra” é definida como “uma expressão criativa de ideias ou sentimentos”. Como a IA não possui ideias ou sentimentos, há uma visão de que o conteúdo criado por IA gerativa não pode ser reconhecido com direitos autorais.
Por outro lado, como o processo de geração de conteúdo por IA é uma caixa-preta para os usuários (o processo de decisão é opaco), fazer com que a IA produza o conteúdo desejado pode ser extremamente difícil. Portanto, se houver criatividade e inovação por parte do usuário na fase de prompt, pode-se argumentar que os “ideias ou sentimentos” do usuário foram “expressos de forma criativa” pela IA gerativa, e, nesses casos, os direitos autorais podem ser reconhecidos.
Sobre o tratamento de informações pessoais ao utilizar IA
Ao utilizar IA, é necessário estar atento à possibilidade de violação da Lei de Proteção de Informações Pessoais. Medidas como não inserir informações pessoais ou privadas são necessárias.
Se informações pessoais forem inseridas no prompt, isso pode constituir uma fornecimento de informações pessoais a terceiros pelo provedor de serviços. Em princípio, o consentimento do indivíduo é necessário para fornecer informações pessoais a terceiros, portanto, sem o consentimento do indivíduo, pode haver uma violação da Lei de Proteção de Informações Pessoais.
No caso do ChatGPT, mesmo que informações pessoais sejam inseridas por engano, o sistema está configurado para não permitir que essas informações sejam exibidas no chat. Isso se deve à política da OpenAI de não armazenar nem rastrear informações pessoais, o que pode variar em outros serviços ou plataformas, exigindo atenção.
Medidas de Risco para Empresas Envolvidas com IA
As medidas de risco variam conforme a estratégia de negócios da empresa, o propósito de utilização da IA e as regulamentações legais aplicáveis, tornando crucial adotar medidas de risco adequadas à situação e aos objetivos.
Para minimizar os riscos ao utilizar IA generativa, as empresas devem considerar os seguintes pontos:
- Desenvolvimento de talentos: O uso adequado da IA generativa requer conhecimento e habilidades especializadas. É importante educar e treinar os funcionários para que compreendam os métodos de utilização apropriados.
- Elaboração, implementação e operação de diretrizes internas: Estabelecer diretrizes internas sobre o uso da IA generativa e garantir que os funcionários as sigam pode reduzir os riscos.
- Construção de uma organização de promoção para utilização e medidas de risco: Estabelecer uma organização que promova o uso da IA generativa e colocar uma equipe responsável pela gestão de riscos dentro da organização é eficaz.
- Implementação do sistema: Para introduzir adequadamente a IA generativa, é necessário selecionar e projetar cuidadosamente o sistema.
Além disso, os riscos associados ao uso da IA generativa estão se diversificando, incluindo vazamento de informações, violação de direitos e privacidade, preocupações com a precisão e segurança das informações, e riscos de viés. Para evitar esses riscos, é essencial introduzir um quadro apropriado de governança e gestão de riscos.
Artigos relacionados: “Riscos da Implementação Corporativa do ChatGPT: Casos de Vazamento de Informações Confidenciais e Medidas Explicativas”[ja]
Resumo: A legislação sobre IA está em desenvolvimento, sendo necessário manter-se atualizado
As leis relacionadas com o negócio de IA, incluindo a pioneira “Lei de Regulação da IA” na UE (promulgada a 9 de dezembro de 2023), estão numa fase de desenvolvimento do quadro legal, o que exige que as empresas cumpram as leis existentes enquanto se adaptam flexivelmente às novas legislações.
No Japão, ainda não existem leis que regulem diretamente a IA, mas é essencial compreender e responder adequadamente a leis relacionadas, como a Lei dos Direitos de Autor, a Lei de Proteção de Dados Pessoais e a Lei de Prevenção da Concorrência Desleal. Além disso, é necessário estar atento às futuras alterações dessas leis e responder prontamente.
Apresentação das Medidas Adotadas pelo Nosso Escritório
O Monolith Law Office é um escritório de advocacia com vasta experiência em IT, especialmente na interseção entre a Internet e o direito. O negócio de AI acarreta muitos riscos legais, tornando o suporte de advogados especializados em questões legais relacionadas à AI absolutamente essencial.
O nosso escritório oferece suporte jurídico avançado em negócios de AI, incluindo o ChatGPT, através de uma equipe de advogados familiarizados com AI e engenheiros, abrangendo a criação de contratos, avaliação da legalidade de modelos de negócios, proteção de direitos de propriedade intelectual e questões de privacidade. Mais detalhes podem ser encontrados no artigo abaixo.
Áreas de prática do Monolith Law Office: Direito de AI (incluindo ChatGPT e outros)[ja]
Category: IT