Quais são os riscos de vazamento de informações com a introdução da IA generativa? Estratégias de defesa através de "Regulamentos Internos de IA" explicadas por um advogado

A IA generativa evoluiu de uma simples ferramenta de eficiência operacional para uma infraestrutura essencial que influencia a competitividade das empresas. No entanto, com a sua rápida disseminação, surgem riscos de “vazamento de informações” e “violação de privacidade” que são fundamentalmente diferentes dos sistemas de TI tradicionais. Em muitas organizações, a priorização da conveniência tem levado ao avanço do “Shadow IT”, onde o uso é decidido de forma independente sem regras claras, resultando inadvertidamente na incorporação de informações confidenciais no aprendizado dos modelos de IA.
Este artigo esclarece o mecanismo de vazamento decorrente das características técnicas da IA generativa e organiza os riscos significativos que podem surgir sob a perspetiva de leis japonesas, como a Lei de Prevenção da Concorrência Desleal e a Lei de Proteção de Informações Pessoais. Além disso, discute a importância de estabelecer regulamentos internos eficazes sobre IA para prevenir esses riscos e acelerar o crescimento dos negócios.
A Necessidade de Regulamentos Internos de IA Personalizados na Implementação de IA Generativa no Japão
Com a aceleração da implementação social da IA generativa, muitas organizações no Japão tendem a avançar na sua adoção apenas porque é “conveniente”, sem realizar uma avaliação de risco adequada.
Especialmente nas pequenas e médias empresas, a disparidade na literacia em TI e a falta de recursos jurídicos resultam numa utilização improvisada que gera um “ciclo vicioso”. Este ciclo vicioso refere-se à confusão no local de trabalho devido à ausência de critérios claros de utilização, o que leva ao risco de vazamento de informações por entradas inadequadas de alguns funcionários. Organizações que percebem este risco podem adotar medidas de “proibição total” antes de considerar contramedidas específicas. No entanto, a busca por conveniência leva os funcionários a continuar a utilização em contas privadas, escondendo-se da empresa, criando assim um fenómeno conhecido como “Shadow IT (Shadow AI)”.
O medo da Shadow IT reside no fato de que dados importantes, como segredos comerciais cruciais para o futuro da empresa e dados pessoais de clientes, podem ser enviados para plataformas externas e reutilizados como dados de aprendizagem para modelos de IA, sem qualquer controle organizacional. Ignorar esta situação não só aumenta a possibilidade de incidentes de vazamento de informações, mas também pode resultar na perda da “gestão de segredos” sob a Lei de Prevenção de Concorrência Desleal do Japão, levando a uma renúncia à proteção como propriedade intelectual da empresa.
Portanto, o que as organizações realmente precisam não é uma proibição total ou deixar a responsabilidade para o local de trabalho, mas sim a formulação de regulamentos internos de IA personalizados, baseados na compreensão correta das características da IA generativa. Apenas reutilizar diretrizes para serviços de nuvem gerais não aborda os processos únicos da IA generativa, como o uso de dados de entrada para aprendizagem de contexto ou ajuste fino, que apresentam riscos. É crucial compreender a necessidade de construir uma governança que garanta a segurança da informação, permitindo que a organização utilize a IA generativa de forma justa e segura.
https://monolith.law/corporate/establishment-of-ai-internal-regulations
Mecanismo e Exemplos de Vazamento de Informações por IA Generativa no Japão

Ao utilizar IA generativa, é crucial estar atento ao fato de que os prompts (instruções) ou dados inseridos pelos usuários podem ser enviados para os servidores dos desenvolvedores e fornecedores do modelo de IA, onde podem ser utilizados como “dados de aprendizagem”. A diferença fundamental em relação aos motores de busca ou serviços de tradução tradicionais é que fragmentos de informações inseridas são incorporados internamente no modelo de IA, apresentando o risco de serem utilizados como “parte das respostas” a perguntas de outros usuários (incluindo, potencialmente, funcionários de empresas concorrentes) no futuro.
Caso de Vazamento de Código-Fonte Confidencial na Samsung Electronics
O caso de vazamento de código-fonte na Samsung Electronics, na Coreia do Sul, destacou os riscos específicos deste mecanismo para o mundo. Em maio de Reiwa 5 (2023), um engenheiro da empresa, durante o processo de depuração de um programa relacionado a semicondutores, inseriu inadvertidamente um código-fonte altamente confidencial no ChatGPT. Além disso, foi descoberto que outro funcionário colou atas de reuniões internas, contendo estratégias de produtos não divulgadas, como prompts para resumir o conteúdo das reuniões.
Esses dados foram incorporados como material de aprendizagem interna do modelo de IA devido ao mecanismo adotado por padrão pela OpenAI na época, que utilizava “dados de entrada para aprendizagem do modelo”. A lição essencial deste caso é que, mesmo sem intenção maliciosa, a ação natural de “querer aumentar a eficiência do trabalho” pode resultar diretamente em vazamentos de informações que causam danos críticos à organização.
Vazamentos “Externos e Internos” Devido a Falhas de Sistema ou Configurações Inadequadas
Além disso, o risco de vazamento não se limita ao uso secundário para aprendizagem. Em março de Reiwa 5 (2023), uma falha no sistema do ChatGPT permitiu que alguns usuários visualizassem os títulos do histórico de chat de outras pessoas. Este problema foi causado por um defeito no programa do lado do fornecedor de serviços, sugerindo que, independentemente de quão bem os usuários sigam as regras, a vulnerabilidade de plataformas externas pode expor informações.
Além disso, ferramentas como o Microsoft 365 Copilot, que se integram a documentos dentro da organização, apresentam o risco de “vazamento interno” se as configurações de permissão de acesso não forem adequadas, permitindo que funcionários sem autorização visualizem, pesquisem e resumam documentos confidenciais através da IA.
Perda de “Não-Publicidade” e Redução da Competitividade Empresarial
O dano aos segredos comerciais significa que, uma vez que a informação é aprendida, ela perde permanentemente sua “não-publicidade” no espaço digital.
Quando uma empresa concorrente consulta a IA sobre um problema técnico específico, a situação em que uma solução inovadora inserida pela sua empresa é apresentada como resposta já não é mais uma fantasia. Assim, a inserção descuidada de informações em IA generativa não se limita a um simples vazamento de informações, mas deve ser reconhecida como um fenômeno grave que abala fundamentalmente os resultados de pesquisa e desenvolvimento de longa data e a vantagem estratégica das empresas.
Risco de Perda de Proteção de Segredos Comerciais sob a Lei Japonesa de Prevenção de Concorrência Desleal
A inserção de informações confidenciais em IA generativa pode resultar na perda da proteção legal como “segredo comercial” sob a lei, o que representa uma consequência jurídica extremamente grave. De acordo com a Lei Japonesa de Prevenção de Concorrência Desleal, para que a informação seja protegida como segredo comercial, é necessário que todos os três requisitos a seguir sejam atendidos:
| Requisito | Definição do Conteúdo | Impacto da Inserção em IA Generativa |
| Gestão de Segredo | Gerido objetivamente como segredo | A inserção em IA sem permissão da empresa pode ser considerada gestão inadequada |
| Utilidade | Informação técnica ou comercial útil para atividades empresariais | (Não se perde imediatamente ao inserir em IA) |
| Não Divulgação Pública | Não é geralmente conhecido | Se a IA aprender e usar para responder a outros, a não divulgação pública é perdida |
Primeiramente, sobre “Gestão de Segredo”, de acordo com as “Diretrizes de Gestão de Segredos Comerciais” e o “Manual de Proteção de Informações Confidenciais” do Ministério da Economia, Comércio e Indústria do Japão, é necessário que o detentor da informação tenha a intenção de gerenciá-la como segredo e que os funcionários possam reconhecer essa gestão. Se um funcionário inserir um segredo comercial em IA generativa sem autorização da empresa, ou se a empresa não impuser configurações adequadas (como opt-out), é altamente provável que o tribunal julgue que “a empresa não tomou medidas adequadas para proteger o segredo”, negando assim a gestão de segredo.
Referência: Ministério da Economia, Comércio e Indústria|Segredos Comerciais – Proteger e Utilizar Segredos Comerciais
Em seguida, sobre “Não Divulgação Pública”, se a informação inserida for utilizada para o aprendizado do modelo de IA e funcionar como fonte de resposta para usuários em todo o mundo, não se pode mais afirmar que essa informação “não é conhecida publicamente”. Uma vez que este requisito legal não seja atendido, mesmo que a informação seja imitada por outra empresa ou levada por um funcionário que mudou de emprego, não será possível solicitar uma injunção ou indenização com base na Lei Japonesa de Prevenção de Concorrência Desleal. Em outras palavras, a inserção descuidada em IA generativa equivale a renunciar ao valor da propriedade intelectual da empresa.
Recentemente, as “Diretrizes para Operadores de IA (Versão 1.0)” publicadas em abril de 2024 (Reiwa 6) enfatizam a mitigação de riscos ao longo de todo o ciclo de vida da IA. Nelas, é indicado como “diretriz comum” que os usuários de IA devem estar atentos ao tratamento de dados de entrada e prompts, prevenindo a inserção inadequada de informações confidenciais. Se uma organização não construir uma governança adequada de acordo com estas diretrizes, o risco de ficar fora do quadro de proteção legal aumenta significativamente.
Referência: Ministério da Economia, Comércio e Indústria|Diretrizes para Operadores de IA
Violação de Acordo de Confidencialidade (NDA) e Riscos Contratuais no Japão
Em muitas transações comerciais no Japão, é celebrado um Acordo de Confidencialidade (NDA) para proteger as informações confiadas pela outra parte. A inserção de informações em IA generativa pode violar estas obrigações contratuais, acarretando o risco de responsabilidade por danos significativos.
Normalmente, um NDA inclui cláusulas que proíbem o uso das informações “para fins distintos dos previstos no contrato” (proibição de uso fora do propósito) e a “divulgação a terceiros sem o consentimento prévio por escrito da outra parte” (proibição de divulgação a terceiros). Quando um funcionário insere documentos divulgados por um parceiro comercial em uma IA generativa para resumi-los ou analisá-los, é altamente provável que isso constitua uma violação clara dessas cláusulas.
Os prestadores de serviços de IA são considerados “terceiros” do ponto de vista das partes do contrato. Exceto no caso de uso de API ou planos pagos para empresas, os serviços geralmente são oferecidos apenas com termos e condições padrão, onde os dados inseridos são armazenados nos servidores dos desenvolvedores e utilizados para fins como a melhoria do modelo. Isso representa uma utilização das informações confiadas “fora do propósito do contrato” e uma disponibilização a “terceiros”.
Além disso, de acordo com um alerta publicado em fevereiro do ano 7 da era Reiwa (2025) pela Agência Digital e pelo Centro de Cibersegurança do Gabinete (NISC) do Japão, ao utilizar serviços de IA com base no exterior, como o DeepSeek, há o risco de que os dados sejam armazenados em servidores fora do Japão e sujeitos às leis locais (como censura ou apreensão). Colocar informações de parceiros comerciais em um ambiente tão incerto pode ser uma base sólida para alegar violação do dever de diligência contratual.
Conflito com a Lei Japonesa de Proteção de Informações Pessoais e Riscos de Privacidade

Ao utilizar a IA generativa para lidar com dados pessoais, é estritamente necessário cumprir a Lei Japonesa de Proteção de Informações Pessoais e as diretrizes relacionadas. A Comissão de Proteção de Informações Pessoais do Japão publicou um aviso em junho de 2023 (Reiwa 5) sobre a disseminação de serviços de IA generativa, esclarecendo os requisitos que as empresas devem seguir.
Especificação dos Propósitos de Utilização e Considerações sobre a Perfilagem
De acordo com o Artigo 21, Parágrafo 1 da Lei de Proteção de Informações Pessoais do Japão, ao obter informações pessoais, é necessário notificar ou divulgar ao titular o propósito de utilização dessas informações de forma imediata, a menos que tal propósito já tenha sido previamente divulgado. Quando se utiliza dados pessoais adquiridos para o aprendizado de IA, surge a questão de saber se essa ação está dentro do escopo dos propósitos de utilização existentes ou se é necessário especificar novamente o propósito como “aprendizado e geração de saídas por IA”.
Particularmente, ao utilizar IA em processos de seleção de pessoal ou avaliação de desempenho para analisar (perfilagem) a personalidade ou aptidão dos candidatos, há a possibilidade de impactar significativamente os direitos e interesses do titular. Portanto, é necessário especificar e esclarecer de forma mais concreta tal processamento analítico como um propósito de utilização. Nas discussões em curso para a revisão da lei a partir de Reiwa 7 (2025), tem-se dado ênfase ao “direito de não ser sujeito a decisões” baseadas em perfilagem e à garantia de transparência, com uma tendência para o fortalecimento das regulamentações sobre decisões automáticas por IA.
A Fronteira entre a Prestação a Terceiros e a “Contratação” sob a Lei Japonesa
Ao inserir dados pessoais em serviços de IA, é crucial determinar se isso se enquadra na “prestação a terceiros” conforme o Artigo 27, parágrafo 1 da lei japonesa, ou se é considerado “contratação”. Geralmente, quando os dados inseridos são utilizados pelos desenvolvedores de IA para o aprendizado dos seus próprios modelos, não se pode afirmar que o contratante controla completamente o propósito de uso, aumentando a probabilidade de ser considerado uma prestação a terceiros. Neste caso, é necessário obter o consentimento prévio da pessoa em questão, mas, na prática, é extremamente difícil obter consentimento individual de um número indeterminado de pessoas para a entrada de dados em IA.
Por outro lado, quando está garantido contratualmente que os dados inseridos não serão utilizados para aprendizado (como no uso de APIs ou em alguns planos pagos para empresas), torna-se mais fácil enquadrar isso no âmbito legal da “contratação”. No entanto, mesmo nesses casos, as empresas têm a obrigação de exercer supervisão necessária e adequada sobre o contratado (prestador de serviços de IA), conforme estipulado pelo Artigo 25 da Lei de Proteção de Informações Pessoais do Japão.
Questões Relacionadas à Fornecimento a Terceiros no Estrangeiro
Ao utilizar serviços de IA fornecidos por empresas estrangeiras, como a OpenAI (EUA) ou a DeepSeek (China), aplica-se a “restrição ao fornecimento a terceiros no estrangeiro” conforme o Artigo 28 da lei japonesa. Quando se fornece dados a empresas localizadas em países que não são reconhecidos como tendo um nível de proteção equivalente ao do Japão, é necessário fornecer informações sobre o sistema jurídico local ao titular dos dados e obter consentimento individual, entre outras medidas.
Particularmente, no alerta emitido em fevereiro do ano Reiwa 7 (2025) pela Comissão de Proteção de Dados Pessoais e pela Agência Digital do Japão, expressou-se preocupação sobre a violação de privacidade devido a riscos geopolíticos. Isso ocorre em serviços onde os dados são armazenados em servidores localizados na China, que podem estar sujeitos a censura governamental ou apreensão de dados com base na “Lei de Segurança Nacional” local. Inserir dados pessoais em tais serviços pode ser considerado uma violação injusta dos direitos e interesses do titular dos dados, sendo essencial uma consideração cuidadosa.
Medidas no Sistema para Minimizar Riscos
Para tornar os regulamentos internos da empresa de IA efetivos, é essencial não depender apenas da consciência individual dos funcionários, mas também construir “barreiras de proteção” sistemáticas. Ao combinar as mais recentes tecnologias de IA com regulamentos, é possível aumentar significativamente a segurança jurídica sob a legislação japonesa.
Configuração de Opt-Out e Segurança Através do Uso de API
A medida mais básica é garantir que os dados de entrada não sejam utilizados para o aprendizado da IA através de um rigoroso “opt-out”. Em serviços voltados para indivíduos, como o ChatGPT, pode ser possível recusar o aprendizado desativando a função de histórico nas configurações, mas não é recomendado deixar isso a cargo dos funcionários do ponto de vista do controle organizacional.
Uma abordagem mais segura é o uso através de API (Interface de Programação de Aplicações). Os principais fornecedores de IA especificam em seus regulamentos que os dados enviados via API não são utilizados para o aprendizado do modelo. Ao construir uma interface interna própria que utilize API, é possível bloquear sistematicamente a reutilização dos dados de entrada para aprendizado.
Garantias Contratuais com Planos Pagos para Empresas
Ao implementar IA em toda a organização, vale a pena considerar a adoção de planos pagos para empresas, como o ChatGPT Enterprise ou o Azure OpenAI Service. Esses serviços aplicam regulamentos empresariais rigorosos, diferentes dos planos para indivíduos, garantindo que os direitos sobre os dados pertençam à empresa usuária, que não sejam utilizados para aprendizado do modelo, e que a criptografia (AES-256, TLS 1.2+, etc.) seja garantida durante a transferência e armazenamento dos dados.
Além disso, escolher serviços que passaram por auditorias independentes, como o SOC 2 Type 2, fornece documentação objetiva que demonstra que o sistema de gestão de segurança está em um nível aceitável, sendo útil para explicar a razoabilidade na seleção de fornecedores e a adequação na gestão de riscos. No entanto, a mera presença dessas certificações não é suficiente para considerar que o dever de cuidado foi cumprido, sendo necessário considerar medidas adicionais de acordo com o uso específico e os riscos envolvidos.
Processamento de Mascaramento e Anonimização de Dados
Como uma operação técnica, é eficaz implementar o “processamento de mascaramento”, que substitui automaticamente nomes pessoais ou nomes de projetos específicos por asteriscos ou símbolos antes da entrada. Isso ajuda a prevenir que, no caso de um vazamento inesperado pela plataforma, as informações sejam ligadas a indivíduos específicos ou segredos comerciais, minimizando os danos potenciais.
Pontos-Chave das Normas Internas de IA para Prevenir Vazamento de Informações no Japão
Normas internas eficazes não devem ser meramente uma “lista de proibições”. Elas precisam ser diretrizes de ação concretas que permitam aos funcionários no local de trabalho determinar imediatamente até que ponto podem utilizar a IA e, ao mesmo tempo, evitar riscos legais sob a legislação japonesa.
“Redefinição” e Hierarquização das Informações Proibidas de Entrada
É importante evitar expressões vagas como “proibição de entrada de informações confidenciais” e definir as informações de acordo com sua natureza, hierarquizando-as.
- Nível 1 (Informações Absolutamente Proibidas): Informações não divulgadas recebidas de parceiros comerciais com base em NDA, resultados financeiros não anunciados da empresa, algoritmos próprios, dados pessoais como nomes e endereços de clientes.
- Nível 2 (Informações Permitidas Condicionalmente): Atas de reuniões com nomes próprios anonimizados, organização de informações técnicas já conhecidas publicamente, revisão de e-mails comerciais padronizados.
- Nível 3 (Âmbito de Utilização Recomendado): Verificação de sintaxe de linguagens de programação, explicação de conceitos gerais, geração de ideias.
Definindo dessa forma, com exemplos concretos, é possível reduzir o custo de decisão dos funcionários e, ao mesmo tempo, inibir violações inconscientes.
Processo de Aprovação de Exceções e Relatório de Contexto
Uma proibição uniforme pode levar ao uso de IA não autorizado. Portanto, deve-se estabelecer um “processo de aprovação de exceções” para casos em que seja necessário inserir informações avançadas em IA para tarefas específicas (como a revisão de um contrato específico). Nesse caso, em vez de uma simples solicitação de “querer usar”, deve-se regulamentar um fluxo que exija a apresentação de um “Relatório de Contexto” com os três elementos a seguir.
- Tool (Ferramenta): Qual modelo de IA será usado e com quais configurações (opt-out, uso de API, etc.).
- Input (Entrada): Que tipo de dados serão inseridos (incluindo ou não informações pessoais).
- Output (Saída): Para que finalidade o produto gerado será usado (uso interno, apresentação a clientes, publicação na web, etc.).
Ao submeter este relatório à revisão prévia dos departamentos jurídico e de TI, é possível controlar organizacionalmente o equilíbrio entre risco e benefício.
Regulamento Especial sobre o Tratamento de Informações Pessoais
As normas devem incluir regulamentos especiais para manter a conformidade com a Lei de Proteção de Informações Pessoais do Japão. Em princípio, proíbe-se a entrada de dados pessoais em estado identificável, e, quando for indispensável para o trabalho, deve-se especificar um fluxo de trabalho que inclua a obtenção de consentimento adequado com base na lei ou a adição de informações à política de privacidade.
Além disso, ao utilizar IA para perfis em processos de seleção de pessoal, deve-se compreender as limitações das decisões da IA (risco de alucinação) e incorporar o princípio de “Human-in-the-loop”, onde a decisão final é sempre feita por um humano.
Mecanismos de Monitorização e Resposta Posterior

Elaborar e divulgar regulamentos não é suficiente como governança. É necessário incluir nos regulamentos um sistema que verifique continuamente se as regras estabelecidas estão a ser seguidas e que prepare a empresa para qualquer eventualidade.
Registo de Utilização e Autoridade de Auditoria
A empresa deve formalizar a sua autoridade para registar os logs de utilização de IA através da rede interna e auditar periodicamente o seu conteúdo. A conservação dos logs funciona como uma “força de dissuasão preventiva” para identificar precocemente utilizações inadequadas, como a inserção excessiva de dados pessoais. Além disso, em caso de incidente, serve como base para a forense digital, permitindo identificar com precisão quem, quando e que tipo de informação foi inserida.
Resposta Inicial em Caso de Incidente
Devem ser estabelecidas rotas de reporte e procedimentos de resposta para casos suspeitos de fuga de informação. A fuga de informação através da inserção em IA, ao contrário da perda física, torna extremamente difícil parar a disseminação da informação. Portanto, deve-se considerar imediatamente um pedido de eliminação ao fornecedor de IA após a descoberta do incidente e, simultaneamente, formar uma equipa de resposta de emergência para cumprir as obrigações legais de reporte (como o Artigo 26 da lei) às partes afetadas e à Comissão de Proteção de Dados Pessoais.
Atualizações Contínuas (Governança Ágil)
A evolução tecnológica da IA generativa e as regulamentações legais nacionais e internacionais que a rodeiam estão a mudar a uma velocidade sem precedentes. A elaboração das “Diretrizes para Fornecedores de IA” no ano de Reiwa 6 (2024) e as revisões previstas da Lei de Proteção de Dados Pessoais entre os anos de Reiwa 7 (2025) e Reiwa 8 (2026) são exemplos de como as regras estão constantemente a ser atualizadas.
Portanto, é necessário não considerar os regulamentos internos como algo “feito uma vez e terminado”, mas sim rever periodicamente, em ciclos curtos de seis meses a um ano, para responder prontamente às características técnicas e novos riscos geopolíticos (como o surgimento de novos serviços como o DeepSeek). Esta prática de “Governança Ágil” é essencial.
Conclusão: Compreender Corretamente os Riscos e Acelerar ao Máximo com as “Normas Internas de IA” no Japão
A conveniência disruptiva proporcionada pela IA generativa deixou de ser uma mera opção para as empresas, tornando-se uma fonte essencial de competitividade para a sobrevivência. Por outro lado, o risco de “vazamento de informações” detalhado neste artigo representa uma ameaça real que pode, da noite para o dia, tornar segredos comerciais, construídos ao longo de anos de esforço empresarial, sem valor, levando à perda de proteção legal e à erosão da confiança social. No entanto, temer excessivamente os riscos e proibir completamente o uso de IA implica assumir outro grande risco: o de estagnar a organização e fomentar o uso desordenado e clandestino.
O que realmente se exige é a implementação de “guarda-corpos” sólidos, baseados em conhecimentos legais, para criar um ambiente onde os funcionários possam utilizar o poder da IA de forma segura e sem hesitações. Normas internas claras não são meramente documentos regulatórios; elas representam a declaração de compromisso da organização em definir e proteger o valor de suas informações, estabelecendo, assim, a base de “confiança” perante parceiros comerciais e a sociedade. Quando uma organização compreende corretamente os mecanismos da IA e os riscos legais no Japão, e faz com que as medidas técnicas e as normas internas funcionem como duas rodas de um carro, somente então a poderosa ferramenta que é a IA generativa se torna uma verdadeira força motriz para o avanço dos negócios.
Orientações sobre Medidas pelo Nosso Escritório
O Escritório de Advocacia Monolith é uma firma com vasta experiência tanto em TI quanto em direito, especialmente no que diz respeito à Internet. No Japão, os negócios de IA apresentam muitos riscos legais, tornando essencial o apoio de advogados familiarizados com questões legais relacionadas à IA. Nosso escritório oferece suporte jurídico avançado para negócios de IA que utilizam tecnologias como o ChatGPT, através de uma equipe composta por advogados e engenheiros especializados em IA. Oferecemos serviços como elaboração de contratos, análise da conformidade dos modelos de negócios, proteção de direitos de propriedade intelectual, adequação à privacidade e desenvolvimento de regulamentos internos de IA. Detalhes adicionais estão disponíveis no artigo abaixo.
Category: IT




















