A Anthropic enfrenta um momento delicado. Após uma série de falhas recentes envolvendo exposição de informações internas, a empresa sofreu mais um revés: o vazamento acidental do código-fonte do seu assistente de programação, o Claude Code.
O incidente acontece em um timing particularmente sensível, já que a companhia estaria se preparando para uma possível oferta pública inicial (IPO) e enfrenta pressão crescente de concorrentes no setor de inteligência artificial.
Um erro técnico que virou janela para dentro da empresa
O vazamento foi identificado por Chaofan Shou, que encontrou um arquivo exposto em um repositório público de pacotes JavaScript.
O arquivo em questão era um .map, normalmente utilizado para depuração de software. Esse tipo de arquivo funciona como um “decodificador”, permitindo reconstruir o código original a partir de versões compiladas.
Na prática, isso significou que a Anthropic publicou acidentalmente parte do código interno do Claude Code — algo que deveria permanecer privado.
O material incluía cerca de 512 mil linhas de código em TypeScript relacionadas à versão 2.1.88 do sistema.
O que foi revelado (e o que não foi)
Embora o vazamento não exponha diretamente o modelo central de IA, ele oferece um panorama detalhado de como o sistema opera no dia a dia.
Entre os elementos identificados por desenvolvedores que analisaram o código estão:
- mecanismos de chamadas de API
- sistema de contagem de tokens
- estrutura de execução de tarefas
- mensagens internas exibidas durante processos
Alguns detalhes curiosos também surgiram, como variações de respostas dependendo do tom do usuário — inclusive quando há uso de palavrões.
Houve até menções a um possível recurso experimental semelhante a um “Tamagotchi digital”, embora isso possa ter sido apenas uma funcionalidade temporária ou até uma brincadeira interna.
A resposta oficial da empresa
A Anthropic confirmou a autenticidade do vazamento, mas minimizou seu impacto.
Segundo a empresa, não houve exposição de dados de usuários nem de credenciais sensíveis. O problema foi classificado como um erro humano no processo de empacotamento do software — e não como uma falha de segurança.
Ainda assim, o episódio levanta questionamentos sobre os processos internos da companhia, especialmente em um momento de expansão e maior visibilidade.
Dependência da própria IA pode ter contribuído
Um detalhe que chama atenção é o nível de dependência interna da empresa em relação à própria ferramenta.
Boris Cherny, responsável pelo Claude Code, já havia afirmado que todas as suas contribuições recentes foram escritas pelo próprio sistema.
Esse tipo de prática, cada vez mais comum no setor, levanta uma hipótese: até que ponto confiar na IA para desenvolver código pode aumentar o risco de erros como esse?
Um problema de imagem em um momento sensível
O vazamento não revela o “segredo industrial” da Anthropic, mas oferece algo quase tão valioso: uma visão interna de como seus sistemas funcionam.
E isso acontece em um momento estratégico.
A empresa está ampliando sua atuação no mercado corporativo, ao mesmo tempo em que enfrenta concorrência direta da OpenAI, que vem fortalecendo suas próprias soluções para programação, como o Codex.
Além disso, o possível IPO aumenta a pressão por transparência, segurança e confiabilidade.
Mais do que um vazamento, um sinal de alerta
Casos como esse mostram que, na corrida pela liderança em inteligência artificial, não basta apenas inovar — é preciso garantir processos sólidos.
O episódio também reforça uma tendência: à medida que sistemas de IA se tornam mais complexos e integrados ao desenvolvimento de software, novas vulnerabilidades podem surgir.
No fim, o vazamento do Claude Code não compromete diretamente a tecnologia central da Anthropic.
Mas expõe algo igualmente importante: os bastidores de uma indústria que ainda está aprendendo a lidar com o próprio poder que criou.