Anthropic libera o código do Claude Code... sem querer
Isso não é uma piada de primeiro de Abril. A Anthropic, responsável pelo Claude Code vazou acidentalmente todo o código da ferramenta... de novo. Vamos falar sobre o que isso significa.
-
O Claude Code é um assistente de programação que roda direto no terminal. Ela edita arquivos, executa comandos, gerencia git, faz tudo que um dev faria, só que com um modelo de IA. É o que a Anthropic chama do seu 'molho secreto', embora existam ferramentas dos concorrentes como o Codex da OpenAI e diversas alternativas abertas
-
Importante entender que o 'Claude Code' não é o LLM desenvolvido pela Anthropic, ele é o que geralmente nós chamamos de 'harness' (arreios / sela).
- Uma ferramenta que deixa o modelo 'nos trilhos' de um comportamento específico
- Provê contexto e dados que serão úteis para essa tarefa
- Provê acesso a ferramentas fora do modelo que podem ajudar nessa tarefa
-
Esse é o 'molho' da Anthropic e foi isso que vazou. Vocês já devem estar vendo o código por aí... tem uma chance de 50% que o código esteja no meu HD aqui agora.
::: warn Aviso Legal
Não hospedem os forks desse código no seu github. Não deem motivos para advogados do vale do silício testarem novas doutrinas legais com vocês
:::
::: error Aviso de Segurança
Não rode o código do Claude Code localmente se não sabe o que está fazendo.
Podem existir versões maliciosas do código por aí, mas também o código original tem dependências internas às quais não temos acesso nos repositórios.
Quando você rodar npm install já vai estar baixando pacotes diferentes que foram squatted por atores maliciosos
:::
::: success Aviso de amigo
Se inscreva no canal, deixe like, deixa hype, apoiase, pix, pega um cafézinho e vamos falar mais sobre essa situação
:::
- No dia 31 de março de 2026, a Anthropic subiu pro npm o Claude Code versão 2.1.88. Só que junto com o pacote, foi também um source map de 59,8 MB chamado
cli.js.map - Source map é um arquivo de debug que mapeia código minificado de volta pro código original. Serve pra desenvolvedor debugar erros em produção, mesmo com o código minificado e obfuscado.
- Isso não deveria ter ido parar lá, duuuh
https://xcancel.com/Fried_rice/status/2038894956459290963
- Foi erro humano? Foi um erro dos agentes de IA? Foi um bug do Bun? Não sabemos ao certo, a Anthropic disse que foi um erro humano (estão protegendo o produto deles). Mas isso aqui foi engraçado:
https://github.com/oven-sh/bun/issues/28001
-
Não é a primeira vez que isso acontece com a Anthropic. Em fevereiro de 2025, um early version do Claude Code já tinha vazado do mesmo jeito
-
Na época eles tiraram do ar, apagaram, mandaram DMCA pra deus e o mundo e prometeram que não ia acontecer de novo. Pois, estamos aqui de novo ...
-
O que foi vazado é um total de aproximadamente 500 mil linhas de código contendo alguns segredos de negócio, os prompts e skills internos, medidas de segurança e o código no geral, comentários e nomes de variáveis e tudo mais.
-
O primeiro repositório a fazer um 'mirror' do código ganhou 60k estrelas no Github em poucas horas, se tornando o repositório mais rápido a chegar nesse ponto de todos os tempos.
-
A Anthropic passou o dia 01/04 mandando DMCAs e tentando tirar os repositórios do ar, mas parece que agora resolveu parar com a estratégia.
-
Outra coisa que começou a acontecer foram as reescritas 'clean room' do código. Traduções por LLM do código para outras linguagens. Não é divertido quando fazem com vocês né gurizada?
-
A última coisa que temos que pensar é... será que foi uma grande jogada de marketing? Até agora eu acho que não, o que nós encontramos no código me sugere isso.
-
Então agora vamos para a parte interessante, falar sobre coisas que chamam atenção dentro do código. Esse chinês aqui fez um relatório gigante estudando, mas eu vou falar de algumas coisas que chamaram mais atenção:
https://github.com/ComeOnOliver/claude-code-analysis
-
BUDDY: um sistema de bichinho virtual tipo Tamagotchi que aparece na interface do Claude Code. Tem 18 espécies - pato, dragão, axolote, capivara, cogumelo, até fantasma. Cada bichinho tem raridade, atributos (debug, paciência, caos, sabedoria, sarcasmo), nome e personalidade gerados na primeira vez que você usa. Teria sido lançado pro 01/04.
-
KAIROS: um "Claude sempre ativo". Funciona em segundo plano, guarda memória em pastas privadas, literalmente sonha, reorganizando informações durante a madrugada, e pode iniciar tarefas sozinho sem esperar comando do usuário. É uma forma de agente autônomo que roda 24/7 no seu computador.
-
ULTRAPLAN: planejamento remoto em nuvem, com um Claude coordenando vários agentes de IA ao mesmo tempo.
-
Undercover Mode: o modo "à paisana". Quando o Claude Code contribui com código em repositórios open source, ele recebe instrução explícita no system prompt pra não revelar que é IA. Nada de "Co-Authored-By: AI" nos commits. Nada de mencionar Anthropic.
- Não preciso dizer que isso é paia. É mentir de propósito pra passar despercebido em projetos que, muitas vezes, explicitamente vetam contribuição automatizada de IA.
- Anthropic porque você tem vergonha do seu filho?
-
Medidas antidestilação: Se detecta que alguém tá fazendo scraping das respostas pra treinar um concorrente, o Claude Code injeta definições falsas de ferramentas nas requisições da API, contaminando o dataset do adversário.
- O vazamento do código agora ajuda muito quem está construindo modelos destilados :)
-
Também chamou atenção que o código todo foi escrito usando IA (isso já se sabia) e algumas gambiarras e padrões de qualidade de código
- Eu vou defender eles nesse sentido: só quem trabalha com desenvolvimento em projetos tão grandes assim sabe o espagueti que fica.
- É um trauma compartilhado da comunidade dev. Sabemos que criamos monstros, mas é rir pra não chorar
-
Exemplos disso abundam pela internet, mas um dos mas engraçados pra mim:
- os termos ofensivos hardcoded pra impedir a geração de ids, por exemplo 'cum' e 'shit'
- uma expressão regular que procura palavras de frustração como 'shit', 'fuck' e 'damn' para marcar aquela conversa como 'frustrante' para o usuário
https://neuromatch.social/@jonny/116324676116121930
- Outras coisas interessantes:
- Agora todas falhas de segurança da Anthropic são open source
- bugs na cache e maneiras de gerenciar o contexto criavam sessões mais caras do que o necessário
Conclusões
-
"o problema da programação já está resolvido". Só que fazer um projeto lôngevo e de sucesso com essas ferramentas, não.
-
Eu não sei quantas vezes eu tenho que repetir e ficar lendo comentário de: "eu fiz um sistema em 1 mês que demoraria um ano, com uma equipe de 3 pessoas usando IA"
-
O ritmo que a gente está desenvolvendo tecnologia em 2026 é uma máquina de bugs, exploits e dívida técnica. O momento da colheita está chegando.
-
E eu entendo que é 'impossível' parar isso. O Zézinho da esquina vai continuar fazendo o seu SaaS com IA, você vai continuar tendo que entregar código cada vez mais rápido, o coach de IA continua lá vendendo curso do último hype e a gente vai continuar nesse ritmo por um tempo.
-
Quanto à Anthropic. O código já tá por aí. Os concorrentes já estão copiando, os chineses já estão destilando. E a gente fica aqui só olhando e dizendo: "que legal, como shippa rápido esses produtos da Anthropic!" kkkkkk
-
Será que isso interfere na valorazação da empresa? Nos lançamentos futuros de modelos ou da ferramenta? No IPO? Será que eles vão resolver lançar a ferramenta como open source a aproveitarem o marketing de graça? Sei lá :)