MONOLITH LAW OFFICE+81-3-6262-3248Dias da semana 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Quais são os riscos da implementação do ChatGPT nas empresas? Explicação de casos de vazamento de informações confidenciais e medidas de prevenção.

IT

Quais são os riscos da implementação do ChatGPT nas empresas? Explicação de casos de vazamento de informações confidenciais e medidas de prevenção.

A implementação do ChatGPT dentro das empresas está a avançar progressivamente. Embora a sua utilidade esteja a atrair muita atenção, existem alguns aspetos que requerem cuidado. Um deles é que não se deve inserir informações confidenciais no ChatGPT. De facto, existem casos no estrangeiro em que a inserção de informações confidenciais desencadeou graves fugas de informação empresarial.

Neste artigo, um advogado irá explicar, com foco no risco de fuga de informações confidenciais, os casos práticos e as medidas a serem tomadas no uso empresarial do ChatGPT, que está em constante evolução.

Razões para Não Inserir Informações Confidenciais no ChatGPT

O ChatGPT, apesar de ser uma ferramenta conveniente, é um chatbot de IA que aprende com big data e dados de utilização na internet. Sem as devidas precauções, existe o risco de informações confidenciais inseridas serem divulgadas.

Abordaremos mais detalhadamente as medidas de mitigação do risco de vazamento de informações confidenciais mais adiante, mas primeiro explicaremos os riscos associados ao ChatGPT que não estão relacionados com o vazamento de informações confidenciais.

Riscos para as empresas ao usar o ChatGPT além da fuga de informações confidenciais

O ChatGPT encontra-se atualmente em fase de teste e implementação em muitas empresas. Por isso, é necessário avaliar os riscos envolvidos de forma consciente antes de decidir sobre a sua utilização nos negócios.

Ao usar o ChatGPT, as empresas podem enfrentar riscos de segurança além da fuga de informações confidenciais (incluindo dados pessoais), tais como:

  • Risco de credibilidade da informação produzida
  • Risco de violação de direitos autorais na informação de entrada e saída

Vamos explicar cada um destes riscos em detalhe.

Falta de credibilidade na informação produzida

O GPT-4, lançado em 14 de março de 2023, passou a oferecer a capacidade de fornecer informações atualizadas devido à sua função de pesquisa. No entanto, o ChatGPT apresenta as suas respostas como se fossem verdadeiras, mas a sua credibilidade não é garantida. As respostas geradas pelo ChatGPT não são baseadas na precisão das informações dos dados de treino, mas sim em textos considerados altamente prováveis. Portanto, é essencial realizar uma verificação dos factos antes de utilizar os resultados produzidos. Se uma empresa divulgar informações falsas, a sua credibilidade pode ser seriamente prejudicada.

Riscos legais como violação de direitos autorais

Riscos legais como violação de direitos autorais

A avaliação de violação de direitos autorais no ChatGPT difere entre as fases de ‘desenvolvimento e aprendizado da IA’ e a fase de ‘geração e uso’. As atividades de uso de obras protegidas por direitos autorais são diferentes em cada fase, assim como os artigos da lei de direitos autorais aplicáveis. Portanto, é necessário considerar cada fase separadamente.

Referência: Agência de Assuntos Culturais do Japão | Seminário sobre Direitos Autorais e IA de 2023 (Reiwa 5)[ja][ja]

Com a revisão da Lei de Direitos Autorais implementada em janeiro de 2019, foi introduzido um novo artigo, o Artigo 30-4, que trata das limitações de direitos na fase de ‘desenvolvimento e aprendizado da IA’. Atividades como a análise de informações para o desenvolvimento da IA, que não visam o gozo das ideias ou sentimentos expressos nas obras, podem ser realizadas sem a autorização do detentor dos direitos autorais, em princípio.

Por outro lado, se o material produzido pelo ChatGPT apresentar semelhanças ou dependência (modificação) de obras protegidas, pode constituir uma violação de direitos autorais. Portanto, antes de publicar, é crucial verificar os detentores dos direitos das informações referenciadas pelo ChatGPT e confirmar se não há conteúdo semelhante ao que foi criado. Além disso, ao citar obras, deve-se indicar claramente a fonte (limitações de direitos) ou, ao reproduzir, obter a autorização do detentor dos direitos autorais e tratar a questão de forma adequada.

Se um detentor de direitos autorais apontar uma violação, a empresa pode ser responsabilizada civilmente (indenização por danos, compensação por sofrimento, cessação de uso, restauração da reputação, etc.) e criminalmente (delitos sujeitos a queixa).

Casos de Problemas com a Inserção de Informações Confidenciais no ChatGPT

A 30 de março de 2023, a mídia sul-coreana “EConomist” reportou que, após a autorização do uso do ChatGPT na divisão de semicondutores da Samsung Electronics, ocorreram três incidentes em que informações confidenciais foram inseridas na plataforma.

A Samsung Electronics, apesar de ter alertado para a segurança da informação internamente, enfrentou situações em que os funcionários enviaram código-fonte para solicitar modificações ao programa (dois casos) e um caso em que um funcionário transmitiu o conteúdo de uma reunião para a criação de uma ata.

Após estes incidentes, a empresa tomou medidas de emergência, limitando a capacidade de upload por pergunta feita ao ChatGPT. Afirmou também que, caso incidentes semelhantes voltem a ocorrer, poderá considerar bloquear o acesso ao serviço.

Além disso, a Walmart e a Amazon estão advertindo seus funcionários para não compartilharem informações confidenciais através de chatbots. Um advogado da Amazon mencionou que já foram observados casos em que as respostas do ChatGPT se assemelham a dados internos da Amazon, sugerindo que esses dados podem ter sido utilizados para o aprendizado da máquina.

Medidas para Prevenir a Fuga de Informações Confidenciais ao Utilizar o ChatGPT

A OpenAI explica nos seus termos de uso que os dados inseridos podem ser utilizados para melhorar o sistema, incluindo o treino do mesmo, e solicita que não sejam enviadas informações sensíveis.

Neste capítulo, apresentaremos quatro medidas, tanto a nível de hardware como de software, para prevenir a fuga de informações confidenciais ao utilizar o ChatGPT.

Elaboração de Diretrizes para Utilização Interna

Elaboração de Diretrizes para Utilização Interna

Ao implementar o ChatGPT na empresa, é importante não só aumentar a literacia em segurança da informação pessoal e promover o reskilling interno, mas também é aconselhável estabelecer diretrizes próprias para a utilização do ChatGPT.

No dia 1 de maio de 2023, a Associação Japonesa de Aprendizagem Profunda (JDLA) compilou questões éticas, legais e sociais (ELSI) relacionadas ao ChatGPT e publicou as “Diretrizes para a Utilização de IA Generativa”. Diversos setores, incluindo acadêmicos, industriais e governamentais, também começaram a considerar a elaboração de suas próprias diretrizes.

Com base nestas informações, ao desenvolver diretrizes claras para o uso do ChatGPT na sua empresa, pode-se esperar mitigar certos riscos.

Referência: Associação Japonesa de Aprendizagem Profunda (JDLA) | Diretrizes para a Utilização de IA Generativa[ja]

Incorporar tecnologia para prevenir a fuga de informações confidenciais

Como medida para prevenir erros humanos que possam levar ao vazamento de informações confidenciais, a implementação de um sistema conhecido como DLP (Data Loss Prevention) pode prevenir a transmissão e cópia de informações confidenciais.

O DLP é uma funcionalidade que monitoriza constantemente os dados inseridos, identificando e protegendo automaticamente informações confidenciais e dados importantes. Ao utilizar o DLP, se informações sensíveis forem detetadas, é possível notificar com um alerta ou bloquear a ação. Enquanto mantém os custos de gestão reduzidos, é possível prevenir de forma segura o vazamento de informações internas. No entanto, é necessário um entendimento avançado dos sistemas de segurança e a implementação pode ser desafiadora para empresas sem um departamento técnico.

Consideração da Implementação de Ferramentas Dedicadas

Desde março de 2023, o ChatGPT passou a permitir, através da utilização de uma API (Interface de Programação de Aplicações, que conecta software, programas e serviços web), a prevenção do vazamento de dados enviados ao ChatGPT.

Os dados enviados via API não são utilizados para aprendizagem ou melhorias, mas são armazenados por 30 dias para “monitorização a fim de prevenir uso indevido ou abuso”, após o que são eliminados, conforme a política de armazenamento atualizada. No entanto, em caso de “requisições legais”, o período de armazenamento dos dados pode ser estendido.

Assim, mesmo com a configuração que impede o uso do ChatGPT para aprendizagem ou melhorias, os dados ainda são armazenados nos servidores por um período determinado, o que, teoricamente, apresenta um risco de vazamento de informações. Portanto, é necessário ter cuidado ao inserir informações confidenciais ou pessoais.

Contudo, a OpenAI valoriza a privacidade dos utilizadores e a segurança dos dados, adotando medidas de segurança rigorosas. Para um uso mais seguro, recomenda-se a implementação do “Azure OpenAI Service”, uma ferramenta com capacidades avançadas de segurança.

O “Azure OpenAI Service”, uma ferramenta especializada para empresas, não coleta dados inseridos no ChatGPT via API. Além disso, se o pedido de opt-out for aprovado após revisão, é possível recusar a retenção e monitorização dos dados de entrada por 30 dias, o que permite evitar o risco de vazamento de informações.

Como configurar o ChatGPT para não aprender informações confidenciais inseridas

Como mencionado anteriormente, o ChatGPT tem um mecanismo que aprende todo o conteúdo opt-in, mas a partir de 25 de abril de 2023 (Reiwa 5), uma funcionalidade para configurar previamente o opt-out está disponível.

Como medida preventiva direta, se desejar recusar que os dados inseridos no ChatGPT sejam utilizados para aprendizagem ou melhoria, será necessário fazer um pedido de ‘opt-out’. O ChatGPT disponibiliza um formulário do Google para ‘opt-out’, pelo que é aconselhável proceder a esta operação. (Insira e envie o endereço de e-mail, ID da organização e nome da organização)

Contudo, mesmo neste caso, os dados inseridos serão armazenados no servidor e monitorizados pela OpenAI por um período definido (normalmente 30 dias).

Termos de Uso do ChatGPT

3. Conteúdo

(c) Uso do conteúdo para melhorar o serviço

Não utilizamos Conteúdo que você fornece ou recebe da nossa API (“Conteúdo da API”) para desenvolver ou melhorar os nossos Serviços.

We may use Content from Services other than our API (“Non-API Content”) to help develop and improve our Services.

Podemos utilizar Conteúdo de Serviços que não sejam a nossa API (“Conteúdo Não-API”) para ajudar a desenvolver e melhorar os nossos Serviços.

Se não desejar que o seu Conteúdo Não-API seja utilizado para melhorar os Serviços, pode optar por não participar preenchendo este formulário. Por favor, note que em alguns casos isso pode limitar a capacidade dos nossos Serviços de atender melhor ao seu caso de uso específico.

Se não quiser que o seu Conteúdo Não-API seja utilizado para melhorar os Serviços, pode optar por não participar preenchendo este formulário.

Tenha em conta que, em alguns casos, isso pode limitar a capacidade dos nossos Serviços de responder de forma mais adequada ao seu caso de uso específico.

Referência: Site Oficial da OpenAI | Termos de Uso do ChatGPT https://openai.com/policies/terms-of-use

Conclusão: A utilização do ChatGPT em negócios exige medidas essenciais para o tratamento de informações confidenciais

Acima, explicámos os riscos de fuga de informações confidenciais e as medidas a tomar na utilização do ChatGPT em negócios, com base em casos práticos.

Na utilização empresarial de IA, como o ChatGPT, que continua a evoluir rapidamente, é indispensável a adoção de medidas em colaboração com especialistas, desde a criação de diretrizes internas, a avaliação da legalidade do modelo de negócios, a elaboração de contratos e termos de uso, à proteção de direitos de propriedade intelectual e ao cumprimento de normas de privacidade.

Artigo relacionado: O que é a lei Web3? Explicamos também os pontos essenciais para as empresas que entram neste campo[ja]

Apresentação das Medidas Adotadas pelo Nosso Escritório

O Monolith Escritório de Advogados é uma firma que possui vasta experiência em IT, especialmente na interseção entre a Internet e o direito. O negócio de AI acarreta muitos riscos legais e o apoio de advogados especializados em questões legais relacionadas com AI é absolutamente essencial.

O nosso escritório oferece suporte jurídico avançado em negócios de AI, incluindo o ChatGPT, através de uma equipa de advogados especializados em AI e engenheiros. Prestamos serviços como a elaboração de contratos, avaliação da legalidade de modelos de negócios, proteção de direitos de propriedade intelectual e questões de privacidade. Mais detalhes podem ser encontrados no artigo abaixo.

Áreas de prática do Monolith Escritório de Advogados: Assuntos Legais de AI (incluindo ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Retornar ao topo