MONOLITH LAW OFFICE+81-3-6262-3248Dias da semana 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Quais são os riscos de usar o ChatGPT em negócios? Explicação sobre questões legais

IT

Quais são os riscos de usar o ChatGPT em negócios? Explicação sobre questões legais

Desde o seu lançamento, o ChatGPT tem recebido grande atenção em todo o mundo pela sua utilidade. No entanto, também se tornou conhecido que o seu uso envolve vários riscos. Ainda estamos numa fase de desenvolvimento legislativo, e é um facto que muitos gestores se sentem inseguros quanto aos riscos de utilizar o ChatGPT nos negócios e às formas de mitigar esses riscos.

Este artigo irá explicar os riscos legais e as medidas de precaução associados ao uso do ChatGPT em contextos empresariais.

Quatro Riscos ao Utilizar o ChatGPT em Ambiente Empresarial

Até mesmo nas empresas, a utilização do AI de geração de linguagem natural ChatGPT tem avançado, e a taxa de adoção corporativa no ano fiscal de 2022 foi de 13,5%, que sobe para 24,0% se incluirmos as empresas que planeiam adotá-lo. (Fonte: Ministério dos Assuntos Internos e Comunicações do Japão | Livro Branco da Informação e Comunicações do ano de Reiwa 5 (2023) – Inquérito sobre Tendências de Utilização de Comunicações ‘Situação da Implementação de Sistemas e Serviços de IoT e AI nas Empresas[ja]’)

De facto, a tecnologia AI, incluindo o ChatGPT, é eficaz na otimização das operações empresariais e antecipa-se que possa gerar ainda mais oportunidades de negócio. No entanto, também acarreta muitos riscos legais. Por isso, é necessário compreender plenamente os riscos antes de decidir sobre a sua utilização nos negócios.

Por exemplo, especialistas têm alertado para os riscos potenciais da AI, como problemas de direitos autorais, disseminação de informações falsas, vazamento de informações confidenciais, questões de privacidade e o seu uso malicioso em ataques cibernéticos.

Neste capítulo, explicaremos quatro riscos associados ao uso do ChatGPT em ambiente empresarial.

Risco de Fuga de Informação Através da Função de Aprendizagem

O ChatGPT, apesar de ser conveniente, é um chatbot de IA gerado através do aprendizado de diversos dados disponíveis na internet, o que significa que, sem as devidas precauções, as informações inseridas podem ser utilizadas no processo de aprendizagem e acabar por ser divulgadas.

De acordo com a política de utilização de dados da OpenAI, a menos que os utilizadores optem por não participar ou utilizem a API do ChatGPT, os dados inseridos no ChatGPT podem ser recolhidos e utilizados (aprendidos) pela OpenAI.

É essencial ter cuidado para não inserir informações pessoais ou confidenciais, como dados de alta sensibilidade, sem tomar as devidas precauções. Mesmo que informações pessoais sejam inseridas acidentalmente no ChatGPT, mensagens de aviso são exibidas e o ChatGPT está configurado para não armazenar nem rastrear informações pessoais, nem as pode exibir no chat.

Por outro lado, houve um incidente no passado em que um bug no sistema da OpenAI, a empresa que opera o ChatGPT, causou a fuga de informações pessoais dos utilizadores.

Artigo relacionado: Quais são os riscos de fuga de informação do ChatGPT? Introdução a 4 medidas preventivas[ja]

Riscos da Falta de Credibilidade da Informação

Riscos da Falta de Credibilidade da Informação

A partir de maio de 2023, o ChatGPT implementou uma funcionalidade de navegação na web, o que lhe permitiu adquirir a capacidade de pesquisa e, com base nisso, fornecer respostas atualizadas.

Contudo, apesar de o ChatGPT apresentar as informações como se fossem verdadeiras ao responder, a sua credibilidade não é garantida. As respostas geradas pelo ChatGPT não se baseiam na precisão dos dados de aprendizagem, mas sim na produção de textos que são considerados prováveis (ou seja, os mais plausíveis). Por isso, é indispensável realizar uma verificação dos factos nas respostas do ChatGPT. Caso contrário, se uma empresa divulgar informações falsas baseadas nas respostas do ChatGPT, a sua credibilidade pode ser seriamente prejudicada.

Em 3 de abril de 2023, a Universidade de Tóquio expressou preocupações sobre os desafios técnicos do ChatGPT e o seu impacto na sociedade futura, emitindo a seguinte declaração:

“O princípio do ChatGPT baseia-se na criação de textos plausíveis através do aprendizado de máquina e do reforço do aprendizado a partir de uma grande quantidade de textos e conteúdos existentes. Portanto, o conteúdo gerado pode conter falsidades. É como se estivéssemos conversando com uma pessoa que finge saber muito, mas que na verdade não sabe (embora a versão mais recente, GPT-4, tenha melhorado significativamente a precisão e seja um interlocutor bastante competente). Assim, para utilizar o ChatGPT eficazmente, é necessário ter conhecimento especializado, verificar criticamente as respostas e fazer as correções apropriadas. Além disso, o ChatGPT não pode analisar ou descrever novos conhecimentos que não estejam presentes nas informações existentes. Ou seja, a existência do ChatGPT não significa que as pessoas possam negligenciar os seus estudos ou pesquisas. No entanto, se uma pessoa com cultura e conhecimento especializado analisar criticamente o conteúdo das respostas e souber utilizá-las bem, poderá melhorar significativamente a eficiência das tarefas rotineiras.”

Fonte: Universidade de Tóquio | “Sobre a IA gerativa (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, etc.)[ja]

Riscos legais como infração de direitos de autor e violação de privacidade

A avaliação de infração de direitos de autor no ChatGPT divide-se em duas fases: a “fase de desenvolvimento e aprendizagem da IA” e a “fase de geração e utilização”. Como as ações de utilização de obras protegidas por direitos de autor diferem em cada fase, os artigos da lei de direitos de autor também são distintos. Por isso, é necessário considerar ambas as fases separadamente.

Referência: Agência Japonesa de Assuntos Culturais | Seminário de Direitos de Autor do ano de Reiwa 5 (2023) “IA e Direitos de Autor”[ja]

Com a revisão da Lei de Direitos de Autor implementada em janeiro de 2019, foi introduzido um novo artigo, o artigo 30-4, que se refere à “fase de desenvolvimento e aprendizagem da IA”, nas disposições de limitação de direitos (exceções que não requerem autorização). Atos de utilização de obras protegidas por direitos de autor que não visam o gozo das ideias ou sentimentos expressos, como a análise de informações para o desenvolvimento da IA, podem ser realizados sem a autorização do titular dos direitos de autor, em princípio.

Por outro lado, se os conteúdos gerados pelo ChatGPT apresentarem semelhança ou dependência (modificação) de obras protegidas por direitos de autor, isso pode constituir uma infração de direitos de autor. Portanto, antes de publicar, é crucial verificar os detentores dos direitos sobre as informações que o ChatGPT consultou e confirmar se não há conteúdos semelhantes ao que foi criado pelo ChatGPT. Além disso, ao citar uma obra protegida por direitos de autor, deve-se indicar a fonte (disposições de limitação de direitos), e ao reproduzir, deve-se obter a autorização de utilização do titular dos direitos de autor e proceder de forma adequada.

De acordo com os termos de uso da OpenAI, o conteúdo criado pelo ChatGPT pode ser utilizado comercialmente. No entanto, se for difícil determinar se o conteúdo criado com o ChatGPT infringe os direitos de autor, recomenda-se a consulta a um especialista.

Se um titular de direitos de autor alegar uma infração, pode haver responsabilidade civil (indemnização por danos, compensação por angústia, cessação de uso, restauração da honra, entre outras medidas legais) ou responsabilidade criminal (delitos sujeitos a queixa). No caso de empresas, as disposições de punição conjunta podem ser aplicadas, resultando em penalidades para indivíduos e entidades jurídicas, o que pode aumentar significativamente o dano.

Quanto a informações pessoais e privacidade, também é necessário ter cuidado para não inseri-las no ChatGPT. Como mencionado acima, mesmo que informações pessoais sejam inseridas no ChatGPT por engano, o sistema está configurado para não armazenar nem rastrear informações pessoais e não as divulgar em chats. No entanto, isso é uma política da OpenAI e pode ser diferente em outras plataformas ou serviços.

Para mais informações sobre o risco de vazamento de informações pessoais, leia o seguinte artigo.

Artigo relacionado: Risco de vazamento de informações pessoais de empresas e compensação por danos[ja]

Risco de Criação Involuntária de Conteúdo Nocivo

Risco de criação involuntária de conteúdo nocivo

Dependendo do conteúdo dos dados aprendidos pelo ChatGPT e do conteúdo dos prompts, existe a possibilidade de ser criado conteúdo nocivo. Se o conteúdo produzido pelo ChatGPT for publicado sem uma revisão adequada, pode prejudicar a reputação e o valor da marca da empresa e, ainda, levar a problemas legais.

Embora o ChatGPT esteja configurado para não permitir a entrada e saída de conteúdo nocivo, códigos de programas maliciosos e serviços fraudulentos podem ser difíceis de identificar e acabar sendo produzidos. Tendo em mente esses riscos, é crucial ter um sistema que verifique constantemente o conteúdo criado.

Compreender os Termos de Uso para Evitar Riscos Associados ao Uso do ChatGPT

Ao utilizar o ChatGPT para fins empresariais, é essencial evitar riscos aderindo aos Termos de Uso e à Política de Privacidade da OpenAI. Os Termos de Uso são frequentemente atualizados, portanto, ao usar o ChatGPT em negócios, é crucial verificar as alterações e estar a par da versão mais recente dos Termos de Uso.

Artigo relacionado: Explicação dos Termos de Uso da OpenAI e pontos de atenção no uso comercial[ja]

O que é necessário para evitar riscos no uso empresarial do ChatGPT

Criação de regras internas

Para evitar os riscos associados ao ChatGPT e utilizá-lo adequadamente nos negócios, as empresas precisam estabelecer o seguinte sistema de governança.

Criar regras internas

No dia 1 de maio de 2023 (Reiwa 5), a Associação Japonesa de Aprendizagem Profunda (JDLA) compilou questões éticas, legais e sociais (ELSI) relacionadas ao ChatGPT e publicou as “Diretrizes de Utilização de IA Gerativa”. Em vários setores, incluindo academia e governo, a elaboração de diretrizes está sendo considerada.

Na implementação do ChatGPT nas empresas, é essencial aumentar a literacia em segurança da informação pessoal e realizar educação interna, mas é desejável estabelecer diretrizes de utilização do ChatGPT específicas para a sua empresa. Ao formular e disseminar amplamente diretrizes que codifiquem as regras de utilização do ChatGPT da sua empresa, pode-se esperar evitar certos riscos.

Referência: Associação Japonesa de Aprendizagem Profunda (JDLA) | “Diretrizes de Utilização de IA Gerativa[ja]

Estabelecer um supervisor para o uso do ChatGPT

É também eficaz para a prevenção de riscos designar um supervisor interno para o uso do ChatGPT, que monitorize constantemente a operação das diretrizes e gerencie os riscos.

Monitorizar o comportamento do ChatGPT, corrigir os resultados gerados e gerir os dados é uma tarefa que se assemelha a uma auditoria de sistemas. A auditoria de sistemas avalia objetivamente a eficiência, segurança e confiabilidade dos sistemas de informação, com o objetivo de otimizar operações e apoiar a transformação organizacional. Ao designar um supervisor para realizar a auditoria, também é possível reforçar a transparência e a responsabilidade na gestão.

Conclusão: Medidas de prevenção de riscos são essenciais para o uso empresarial do ChatGPT

Aqui, explicámos em detalhe os riscos e as medidas de prevenção associados ao uso empresarial do ChatGPT.

No que toca à rápida evolução da IA nos negócios, como o ChatGPT, é indispensável implementar uma série de medidas, desde a criação de diretrizes internas para o uso, até à avaliação da legalidade do modelo de negócios, elaboração de contratos e termos de uso, proteção de direitos de propriedade intelectual e medidas de privacidade. Tudo isto requer a colaboração com especialistas familiarizados com os riscos legais e a tecnologia de IA.

Apresentação das Medidas da Nossa Firma

A Monolith Law Office é uma sociedade de advogados com vasta experiência em IT, especialmente na intersecção entre a Internet e o direito. O negócio de AI acarreta muitos riscos legais e o apoio de advogados especializados em questões legais relacionadas com AI é absolutamente essencial.

A nossa firma oferece uma variedade de suportes legais para negócios de AI, incluindo o ChatGPT, através de uma equipa composta por advogados especializados em AI e engenheiros, entre outros. Pode encontrar mais detalhes no artigo abaixo.

Áreas de prática da Monolith Law Office: Assuntos Legais de AI (incluindo ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Retornar ao topo