O Claude Code vazou o próprio código — e o que estava dentro pode ser mais importante que o vazamento


Ontem, um pesquisador estagiário da empresa de segurança Fuzzland, chamado Chaofan Shou, encontrou algo surpreendente no registro público do npm, o repositório onde desenvolvedores publicam pacotes de software.

Dentro do pacote oficial do Claude Code (a ferramenta de programação da Anthropic, a mesma empresa que faz o Claude), havia um arquivo chamado cli.js.map. Para quem não é desenvolvedor: esse arquivo é um source map (traduzindo para português, um mapa de fonte) — um arquivo técnico que acompanha código comprimido e guarda o mapeamento completo de volta ao código original, linha por linha. Serve para debug. E estava publicamente acessível no npm.

A Anthropic tinha publicado o source map junto com o produto.

Em algumas horas, o conteúdo já estava disponibilizado no GitHub. Mais de 512.000 linhas de código. Tudo disponível para qualquer pessoa baixar, e o repositório acumulou mais de 50.000 cópias em poucas horas.

A história do vazamento já seria relevante por si só. Só que o que estava dentro do código revelou algo que vale mais a pena discutir.


O sistema que foi encontrado lá dentro

Entre as descobertas realizadas a partir do código vazado, uma chamou atenção especial no Hacker News, onde a história acumulou quase 2.000 likes e 900 comentários.

Existe no Claude Code algo chamado de undercover mode, ou modo disfarçado, em tradução livre.

Esse modo instrui o Claude a nunca mencionar, em commits ou pull requests públicos no GitHub, que o código foi produzido por ele. Segundo o trecho real do prompt vazado:

“NEVER include in commit messages or PR descriptions: The phrase ‘Claude Code’ or any mention that [it’s] an AI.”

Traduzindo: nunca diga que você é IA. Não assine o trabalho. Finja que é um ser humano contribuindo.

E aqui está a ironia que muita gente percebeu: a Anthropic criou um modo específico para garantir que o Claude nunca revelasse que era uma IA e então, acidentalmente, publicou esse modo para qualquer pessoa ler.

A instrução era: não conte que você é uma IA. E a Anthropic contou para todo mundo.

A própria Anthropic confirmou o incidente ao The Verge. Christopher Nulty, porta-voz da empresa, disse: “This was a release packaging issue caused by human error, not a security breach.” Ou seja, nenhum dado de cliente foi exposto. Só o código interno.


Por que isso é relevante para você

Você possivelmente não usa Claude Code para contribuir com projetos de código aberto no GitHub. Mas o princípio do undercover mode está presente em qualquer ferramenta que não te diz o que ela esconde.

A instrução não foi criada para enganar quem usa a ferramenta, até porque você sabe que está usando. Ela parece ter sido criada para que o resultado parecesse humano para quem visse de fora.

E isso levanta uma questão muito relevante: quando você usa uma ferramenta de IA para produzir algo, como por exemplo um texto, uma análise, um código, quem vai ler esse material do outro lado sabe, ou deveria saber, que foi total ou parcialmente gerado por IA?

Às vezes a resposta não importa. Mas às vezes importa muito. E a Anthropic parece ter tomado essa decisão por você, sem documentar de forma explícita.

O vazamento, então, não revelou somente uma falha de segurança. Revelou que ferramentas de IA podem conter em seus códigos decisões embutidas sobre como se apresentar ao mundo — e você e eu só ficamos sabendo quando alguém encontra o arquivo errado no lugar errado.


E o que podemos tirar disto?

Existe um princípio que uso bastante aqui no blog: a via negativa. Em vez de perguntar “o que essa ferramenta faz?”, você pode perguntar “o que ela esconde?”.

A fragilidade não está nas funcionalidades documentadas. Está nas suposições não ditas.

O undercover mode do Claude Code é um exemplo claro: a empresa entendeu que seria razoável instruir o modelo a não se identificar como IA em repositórios públicos. Mas, pergunto: razoável para quem? Essa pergunta parece nunca ter sido colocada para os usuários.

Quando você usa uma ferramenta de IA, você “herda” todas as suposições que estão dentro dela, inclusive as que ninguém documentou e que você desconhece.

A questão não é se existem suposições escondidas, mas sim quantas.

O que fazer com isso

Não estou afirmando que você deveria parar de usar Claude, o ChatGPT, ou qualquer ferramenta de IA. Estou dizendo que a opacidade pode ter um custo, e o custo é que você descobre o que estava lá dentro só quando algo vaza.

Só que as suposições que estão embutidas no código não somem quando o arquivo some. Elas continuam lá, na próxima versão, talvez com um outro nome.

A resposta não é desconfiar de tudo. É manter o ser humano no centro das decisões que importam.

Um texto que vai para um cliente, um relatório que fundamenta uma decisão, um contrato que você vai assinar. Nesses casos, a IA tem que ser encarada como um instrumento. Quem responde pelo conteúdo é você. E isso exige que você tenha lido, entendido e aprovado o que está sendo entregue.

Transparência não é só declarar que usou IA. É garantir que o que sai com o seu nome reflete o que você de fato pensa e, especialmente, revisou.

O undercover mode parece ser o oposto disso. E você não precisa esperar o próximo vazamento para decidir que não quer trabalhar dessa forma.

Pense nisso.


*Fontes: The Verge (31/03/2026), Hacker News (47584540, 47586778) — verificadas em 31/03/2026*

Deixe um comentário