Pessoa utilizando ChatGPT em notebook.

O que nunca dizer ao ChatGPT (e nenhuma outra IA) no trabalho

O uso de ferramentas como o ChatGPT no dia a dia do trabalho tem se tornado cada vez mais comum, e no entusiasmo de utilizá-las para facilitar o fluxo de tarefas, muitos profissionais esquecem que nem tudo pode ser dividido com a IA. Informações sensíveis, estratégicas ou confidenciais inseridas num chatbot podem escapar do seu controle e acabar expostas. Neste artigo explicamos o que não deve ser compartilhado com ferramentas como o ChatGPT no contexto corporativo, e por quê.
08/05/2025 9 minutos de leitura

Por que se preocupar? Riscos de expor dados sensíveis à IA

Enviar uma pergunta ao ChatGPT pode parecer algo inofensivo, mas quando essa pergunta contém dados internos da empresa ou outros dados sensíveis, o risco é real, e muitas vezes subestimado.

Quando você insere uma informação em uma IA generativa, ela deixa o ambiente protegido da sua empresa e vai parar em servidores de terceiros. A partir daí, não há garantias sobre onde essa informação será armazenada, quem poderá acessá-la ou mesmo se será usada para “ensinar” o modelo no futuro.

Considerando que a IA está sempre aprendendo, não existe garantia de que os dados inseridos não serão utilizados em respostas para outros usuários, e nem há garantia de conseguir apagar dados confidenciais depois de compartilhados.

O ChatGPT armazena dados?

Sim, a maioria das plataformas de IA, incluindo o ChatGPT, pode utilizar as entradas dos usuários para melhorar seus algoritmos. Isso significa que aquilo que você digitou hoje pode, de forma não intencional, voltar como parte de uma resposta a outro usuário amanhã. Um risco evidente, especialmente quando se trata de dados sigilosos.

O que acontece com as informações inseridas no ChatGPT?

Por padrão, as informações que você insere no ChatGPT são utilizadas para treinar e melhorar os modelos da OpenAI. Os dados são armazenados temporariamente, analisados e usados para “ensinar” o modelo a responder melhor no futuro.

Se você desativa o “Histórico de chat” nas configurações da sua conta, os dados das suas conversas não serão usados para treinamento, e a OpenAI mantém essas informações por apenas 30 dias com o único objetivo de verificar abusos.

🚩 Atenção! Mesmo com o histórico desabilitado, a recomendação é não compartilhar dados sensíveis, porque estes dados ainda passam por servidores externos e podem ser armazenados temporariamente!

Quais informações não compartilhar com o ChatGPT

Como regra geral, se você não compartilharia uma informação em público ou em um e-mail aberto, também não deve compartilhá-la com o ChatGPT (ou qualquer outra IA). Essas informações podem, de alguma forma, acabar exposta e prejudicar o seu trabalho e a sua empresa.

Confira exemplos de dados sensíveis a evitar:

Dados pessoais de clientes e colaboradores

Informações como nome completo, CPF, endereço, e-mail, telefone, resultados de exames, número de documentos ou dados de RH não devem, em hipótese alguma, ser inseridos em uma conversa com IA. Além de violar legislações como a LGPD, isso expõe pessoas a riscos como fraudes e vazamentos.

Credenciais de acesso

Senhas, logins, chaves de API ou tokens de sistemas internos não devem ser usados com o ChatGPT. Parece óbvio, mas esse é um erro comum em empresas. A IA não é um cofre seguro, tudo o que for compartilhado ali pode ser acessado por terceiros, direta ou indiretamente.

Segredos comerciais e estratégias confidenciais

Planos de negócio ainda não divulgados, ideias de novos produtos, contratos estratégicos ou listas de clientes VIP são exemplos de ativos que representam o diferencial competitivo da empresa. Colocar essas informações em um chatbot é como entregá-las de bandeja para o mundo.

Código-fonte e documentos técnicos proprietários

Desenvolvedores devem ter atenção redobrada. Solicitar ajuda para resolver um bug copiando trechos de código ou estruturas internas de software pode expor projetos inteiros. Em alguns casos, como já aconteceu no setor industrial, esse tipo de inserção resultou em vazamentos reais de propriedade intelectual.

Informações financeiras e jurídicas sensíveis

Dados como balanços ainda não divulgados, folhas de pagamento, contratos em negociação, disputas legais ou documentos regulatórios internos são extremamente delicados. Uma simples “análise” ou “resumo” solicitado à IA pode comprometer sigilos contratuais e resultar em consequências legais.

Casos reais: vazamentos de informação via IA e lições aprendidas

Veja alguns exemplos reais de organizações que enfrentaram problemas por uso inadequado de ferramentas como ChatGPT e as principais lições que tiraram disso.

Samsung: quando o código vaza por descuido

Em 2023, um funcionário da Samsung colou no ChatGPT trechos de código-fonte confidencial e informações de reuniões internas, gerando um vazamento grave. O incidente foi tão sério que a empresa baniu temporariamente o uso da IA por todos os colaboradores. A mensagem foi clara: não dá para perder o controle sobre dados estratégicos. (Fonte)

Amazon: IA “lembrando” demais

A Amazon identificou que o ChatGPT estava gerando respostas similares a conteúdos internos da empresa, um indício claro de que informações sensíveis haviam sido copiadas para a ferramenta por alguém. Como resposta, proibiu seus funcionários de inserir qualquer código ou dado interno na IA e passou a recomendar o uso de ferramentas proprietárias mais seguras, como o CodeWhisperer. (Fonte)

Apple: proteção total ao que é estratégico

Com todos estes casos acontecendo, em 2023 a Apple também decidiu agir antes que um vazamento acontecesse. Proibiu o uso do ChatGPT no ambiente de trabalho por receio de que projetos confidenciais fossem expostos a terceiros. Em paralelo, começou a desenvolver suas próprias ferramentas internas de IA, uma forma de usufruir da tecnologia sem abrir mão da segurança. (Fonte)

Como empresas podem mitigar riscos ao usar IA

Bloquear completamente o uso de IA no ambiente corporativo não é uma solução inteligente, pois limita muito a inovação e a produtividade. O ideal é adotar boas práticas para utilizar o ChatGPT com segurança.

Estabeleça políticas claras de uso

O primeiro passo é ter uma política de uso da IA documentada e bem divulgada dentro da organização. Ela deve deixar claro:

  • Quando e como a IA pode ser utilizada no trabalho
  • Quais tipos de dados são proibidos nos prompts
  • Quais consequências existem em caso de violação

Esse documento funciona como uma linha de defesa inicial e ajuda a alinhar expectativas entre empresa e colaboradores.

Conscientize e eduque times

Não adianta ter regras se ninguém sabe por que elas existem. Capacitação é chave. Promova treinamentos, workshops e conteúdos internos que expliquem os riscos, com exemplos reais. Funcionários informados pensam duas vezes antes de expor dados sensíveis.

Priorize ferramentas corporativas seguras

Prefira soluções de IA projetadas para uso empresarial, como o ChatGPT Enterprise, que não utiliza os dados para treinar o modelo e oferece maior proteção. Alternativas incluem:

  • Utilizar a API do OpenAI com configuração de privacidade
  • Implantar modelos internos de IA, quando possível
  • Evitar o uso de plataformas abertas para tratar dados corporativos

Controle o acesso e monitore o uso

Nem todo mundo precisa ter acesso irrestrito a ferramentas de IA. É possível limitar o uso por áreas ou cargos, criar processos de aprovação para usos mais sensíveis e monitorar padrões de utilização que possam indicar riscos. Algumas empresas usam filtros automáticos para bloquear termos críticos nos prompts.

Use anonimização e ofuscação de dados

Se for imprescindível usar dados reais em uma interação com IA, aplique técnicas de anonimização: substitua nomes por códigos, omita números exatos, generalize contextos. Isso reduz o risco de exposição sem impedir o uso prático da ferramenta.

Leia também: Inteligência Artificial nas empresas: entenda o impacto real

Dicas para equipes que treinam IA de atendimento

Treinar modelos de IA para atendimento (seja ao cliente ou para suporte interno) exige uma atenção redobrada com a segurança da informação. Esses modelos lidam com conteúdos sensíveis, desde dúvidas rotineiras até informações estratégicas da empresa. Por isso, a forma como esses sistemas são treinados pode fazer toda a diferença entre um assistente eficiente e um risco de vazamento em potencial.

Confira algumas dicas para treinar IA de maneira segura:

  1. Use apenas dados limpos e autorizados: Não jogue conversas reais no treinamento antes de remover dados como nomes, contatos, números de protocolo e qualquer outro dado sensível. Se possível, use dados que simulam atendimentos, sem envolver casos verdadeiros.
  2. Separe conteúdo público de conteúdo interno: Informações públicas (como FAQs) podem ser utilizadas livremente, mas conteúdos internos devem ser integrados com segurança, preferencialmente via sistemas seguros de recuperação de informação.
  3. Estabeleça limites no comportamento do assistente: Configure o modelo com regras explícitas sobre o que ele pode ou não responder. Por exemplo: “Não responda perguntas fora da base pública” ou “Encaminhe casos sensíveis para atendimento humano”.
  4. Prefira a API do ChatGPT para integração: A API da OpenAI tem políticas mais seguras do que a versão pública do ChatGPT. Desde março de 2023, os dados enviados via API não são usados para treinar os modelos, a menos que o usuário permita isso. Além disso, é possível ativar o modo Zero Data Retention (ZDR), em que nenhum dado é armazenado, ideal para projetos com dados sensíveis.

A IA veio para ficar e traz muitos benefícios para aqueles que a usam com estratégia. A questão não é deixar de usá-la, mas sim, entender que tipo de informação pode ser compartilhada sem comprometer a segurança da sua empresa. Com as precauções certas, é possível aproveitar todo o potencial dessas ferramentas sem correr riscos desnecessários.

Fique por dentro de temas relevantes do universo do marketing digital, acompanhe o blog da MO4 web.

Conheça nossos serviços de desenvolvimento de sites e SEO.

Compartilhe
Raísa Fabel
o autor

Raísa Fabel

Analista de SEO e estrategista de conteúdo na MO4 web.

Este site utiliza cookies que salvam seu histórico de uso. Para saber mais, leia a nossa política de privacidade
Preencha com os seus dados para iniciar uma conversa com nossos especialistas:
Ao prosseguir você declara estar de acordo termos de política de privacidade deste site.