Você paga US$ 200 por mês no Claude Code Pro e fica naquela sensação de que está financiando a pesquisa da Anthropic do próprio bolso? Um projeto open source chamado DeepClaude acabou de estourar no Hacker News com mais de 500 upvotes — e a proposta é simples: manter toda a experiência do Claude Code, trocar o “cérebro” por trás dele, e pagar uma fração do preço.
A ideia não é nova. Desde que a DeepSeek lançou o V4 Pro em abril de 2026 com scores praticamente idênticos ao Claude Opus no SWE-bench Verified (80.6% contra 80.8%), desenvolvedores começaram a experimentar o que acontece quando você redireciona as chamadas de API do Claude Code para backends mais baratos. O DeepClaude automatiza esse processo e entrega métricas de custo em tempo real.
Eu testei. E tem muito o que discutir.
O Que É o Claude Code (e Por Que Ele É Tão Caro)
Se você ainda não usou, o Claude Code é o agente autônomo de codificação da Anthropic. Ele roda no terminal, lê seu repositório inteiro, edita arquivos, executa comandos bash, roda testes e itera sobre os erros — tudo sozinho. É, de longe, o melhor harness de coding agent disponível em 2026.
O problema é o preço. A assinatura Pro custa US$ 200/mês e, dependendo do uso, esbarra em rate limits. Se você usar via API, o Claude Opus 4.6 cobra US$ 15 por milhão de tokens de output. Para um refactoring pesado de um projeto médio, você queima facilmente US$ 30-50 numa tarde.
É aí que entra a pergunta: e se o modelo por trás fosse outro, mas a experiência continuasse a mesma?
DeepClaude: O Proxy que Troca o Modelo Sem Mudar a Interface
O DeepClaude funciona como um proxy local rodando em localhost:3200. Quando você inicia o Claude Code através dele, todas as chamadas de API que iriam para api.anthropic.com são redirecionadas para o endpoint da DeepSeek (ou qualquer outro backend compatível com a API da Anthropic).
Na prática, o que muda:
| Aspecto | Claude Code Original | Com DeepClaude |
|---|---|---|
| Modelo | Claude Opus 4.6 | DeepSeek V4 Pro |
| Custo por 1M tokens (output) | US$ 15.00 | US$ 0.87 |
| Custo com cache ativo | US$ 0.44/M | US$ 0.004/M |
| Interface | Terminal Claude Code | Idêntica |
| Edição de arquivos | Sim | Sim |
| Execução de bash | Sim | Sim |
| Loop autônomo multi-step | Sim | Sim |
| Subagents | Sim | Sim |
| Suporte a imagens | Sim | Não |
| Ferramentas MCP | Sim | Não |
| Execução paralela de tools | Sim | Não (sequencial) |
A economia é brutal. O custo com cache ativo cai de US$ 0.44 para US$ 0.004 por milhão de tokens — uma redução de 99%. Em loops de agente, onde o system prompt e o contexto do projeto são enviados repetidamente, isso faz uma diferença absurda.
Como Instalar e Configurar
A instalação é surpreendentemente simples. Você precisa de:
- Uma API key da DeepSeek (crie em
platform.deepseek.com) - O Claude Code já instalado no seu sistema
- O script do DeepClaude
# Clone o repositório
git clone https://github.com/aattaran/deepclaude.git
cd deepclaude
# Exporte sua chave da DeepSeek
export DEEPSEEK_API_KEY="sua-chave-aqui"
# Rode o DeepClaude
./deepclaude
Por baixo dos panos, o script configura estas variáveis de ambiente temporariamente:
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="$DEEPSEEK_API_KEY"
export ANTHROPIC_MODEL="deepseek-v4-pro"
Quando você encerra a sessão, tudo volta ao normal. Suas configurações originais do Claude Code não são tocadas.
Se preferir fazer manualmente sem o DeepClaude, a própria DeepSeek documenta o processo:
# Configuração manual (sem proxy)
ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic" \
ANTHROPIC_AUTH_TOKEN="sua-deepseek-key" \
ANTHROPIC_MODEL="deepseek-v4-pro" \
claude
Três linhas. Sem instalar nada.
Benchmarks: DeepSeek V4 Pro vs Claude Opus — Quem Ganha?
Aqui a coisa fica interessante. Os números oficiais são apertados:
| Benchmark | DeepSeek V4 Pro | Claude Opus 4.6 | GPT-5.5 |
|---|---|---|---|
| SWE-bench Verified | 80.6% | 80.8% | 79.1% |
| LiveCodeBench | 93.5% | 88.8% | 87.2% |
| Codeforces Rating | 3.206 | 2.890 | 3.168 |
| Terminal-Bench 2.0 | 67.9% | 69.4% | 65.2% |
| SWE-bench Pro | 55.4% | 64.3% | 58.7% |
No SWE-bench Verified, a diferença é de 0.2 pontos percentuais — estatisticamente irrelevante. No LiveCodeBench, o V4 Pro na verdade supera o Opus com folga. E no Codeforces, o rating de 3.206 é o mais alto já registrado por qualquer modelo de IA.
Mas o SWE-bench Pro conta outra história. Em tarefas mais complexas, com ambiguidade e múltiplos passos, o Claude Opus mantém uma vantagem significativa de quase 9 pontos percentuais. Isso sugere que, para refactorings simples e correção de bugs, o V4 Pro é equivalente. Para arquitetura mais sofisticada, o Opus ainda leva.
O Que Funciona (e o Que Não Funciona)
Depois de uma semana usando o DeepClaude no dia a dia, meu veredito:
Funciona perfeitamente:
- Leitura e edição de arquivos
- Execução de comandos shell
- Loops autônomos de debug (encontra erro → edita → roda teste → itera)
- Git operations (commit, diff, branch)
- Geração de código boilerplate
- Correção de bugs bem definidos
Funciona, mas com ressalvas:
- Extended thinking mode — funciona, mas as “reflexões” do V4 Pro são menos profundas que as do Opus
- Projetos grandes (>50 arquivos) — o V4 Pro perde contexto com mais frequência
- Code review — identifica problemas, mas as sugestões são mais genéricas
Não funciona:
- Análise de imagens/screenshots — o V4 Pro não suporta vision via a API da Anthropic
- Ferramentas MCP (Model Context Protocol) — simplesmente não são reconhecidas
- Execução paralela de tools — tudo roda sequencialmente, o que torna loops complexos mais lentos
A limitação da execução sequencial é a mais impactante no dia a dia. Quando o Claude Opus precisa ler 5 arquivos, ele faz tudo em paralelo. Com o V4 Pro via DeepClaude, são 5 chamadas sequenciais. Em projetos grandes, essa diferença acumula.
A Matemática do Custo: Vale a Pena?
Vamos ao que interessa. Considere um desenvolvedor que usa o Claude Code intensivamente — digamos, 4 horas por dia, 5 dias por semana.
| Cenário | Claude Opus (API) | DeepSeek V4 Pro | Economia |
|---|---|---|---|
| Uso leve (500K tokens/dia) | ~US$ 150/mês | ~US$ 8.70/mês | 94% |
| Uso moderado (2M tokens/dia) | ~US$ 600/mês | ~US$ 35/mês | 94% |
| Uso intensivo (5M tokens/dia) | ~US$ 1.500/mês | ~US$ 87/mês | 94% |
Com cache ativo (que o DeepSeek habilita automaticamente), o custo cai ainda mais. Um dev relatou na discussão do Hacker News que gastou US$ 15 em 45 minutos de refactoring pesado — mas sem cache. Com cache quente, o mesmo trabalho custaria centavos.
Porém, tem um asterisco enorme: o preço atual do V4 Pro inclui um desconto de 75% válido até maio de 2026. Quando a promoção acabar, o custo sobe de US$ 0.87 para US$ 3.48 por milhão de tokens de output. Ainda mais barato que o Opus, mas a economia cai de 17x para ~4x.
A Questão da Privacidade
Esse é o elefante na sala que a maioria dos entusiastas ignora.
Quando você usa o Claude Code com a API da Anthropic, seus dados não são usados para treinamento (policy explícita da Anthropic para uso via API). Quando você redireciona para a DeepSeek, a história muda.
A DeepSeek não oferece opt-out de treinamento na sua API pública. Isso significa que todo código que você processa via DeepClaude pode, em tese, ser usado para treinar futuras versões do modelo. Para projetos pessoais e open source, isso pode não ser um problema. Para código proprietário de uma empresa, é um dealbreaker.
Alternativas mencionadas pela comunidade:
- OpenRouter com política de zero data retention — custo similar ao DeepSeek
- Fireworks AI — mais caro (US$ 3.48/M), mas com servidores nos EUA e políticas de privacidade mais claras
- Self-hosting — o V4 Pro é open source, então em teoria você pode rodar localmente. Na prática, precisa de hardware sério (múltiplas GPUs A100/H100)
Backends Alternativos Suportados
O DeepClaude não é exclusivo para DeepSeek. Ele suporta qualquer backend compatível com a API da Anthropic:
# Usando OpenRouter
deepclaude --backend openrouter --api-key $OPENROUTER_KEY
# Usando Fireworks AI
deepclaude --backend fireworks --api-key $FIREWORKS_KEY
# Voltando para Anthropic (original)
deepclaude --backend anthropic --api-key $ANTHROPIC_KEY
Você pode até trocar de backend no meio da sessão com um slash command, sem perder o contexto da conversa. Isso é genuinamente útil: começa com DeepSeek para o trabalho pesado, troca para Opus quando precisa de raciocínio mais sofisticado.
O Ecossistema de Harnesses Está Explodindo
O DeepClaude é só a ponta do iceberg. O mercado de “harnesses” — interfaces que orquestram modelos de IA para coding — está em plena explosão:
- Claude Code (Anthropic) — o benchmark que todos tentam igualar
- Cursor — IDE com IA integrada, avaliada em US$ 60 bilhões
- Pi.dev — focado em agentes autônomos de código
- OpenCode — alternativa open source ao Claude Code
- Hermes — agent loop minimalista, compatível com múltiplos backends
O que a comunidade está percebendo é que o harness importa tanto quanto o modelo. Um modelo mediano num harness excelente pode superar um modelo top num harness ruim. O Claude Code tem o melhor harness do mercado — e é exatamente por isso que projetos como o DeepClaude fazem sentido: pegar o melhor chassis e trocar o motor.
Quando Usar o DeepClaude (e Quando Não Usar)
Minha recomendação honesta:
Use o DeepClaude quando:
- Está trabalhando em projetos pessoais ou open source
- O orçamento é limitado e o Claude Pro de US$ 200/mês pesa
- As tarefas são bem definidas: fix bugs, gerar boilerplate, escrever testes
- Não precisa de análise de imagens ou screenshots
- Quer experimentar diferentes modelos sem mudar de interface
Continue com o Claude Opus quando:
- Trabalha com código proprietário que não pode vazar
- Precisa de raciocínio complexo em refactorings arquiteturais
- Usa ferramentas MCP extensivamente
- A velocidade de execução paralela é crítica
- Precisa de suporte a vision (diagramas, screenshots, UI)
Considere o OpenRouter como meio-termo quando:
- Quer o custo do DeepSeek com privacidade melhor
- Está em empresas que exigem compliance de dados
- Quer latência mais baixa fora da Ásia
Como Monitorar Seus Gastos
Uma feature útil do DeepClaude é o endpoint de tracking de custos:
# Ver custos da sessão atual
curl http://localhost:3200/_proxy/cost
{
"session_tokens": {
"input": 1245000,
"output": 387000
},
"session_cost_usd": 0.42,
"equivalent_anthropic_cost": 7.14,
"savings_percent": 94.1
}
Isso é ouro para quem precisa justificar custos de ferramentas de IA para a gestão. Poder mostrar que gastou US$ 35 no mês em vez de US$ 600 é um argumento poderoso.
O Futuro: Modelos Commodity e Harnesses Premium
O DeepClaude representa uma tendência maior no mercado de IA: a commoditização dos modelos. Quando três modelos diferentes (Opus, V4 Pro, GPT-5.5) atingem scores quase idênticos no SWE-bench, o diferencial migra do modelo para a infraestrutura ao redor dele.
A Anthropic entendeu isso. O Claude Code não é apenas um wrapper sobre a API — é um produto com anos de engenharia em tool use, agentic loops, e UX de terminal. Quando alguém usa o DeepClaude, está implicitamente validando que o harness da Anthropic é superior ao da concorrência.
A pergunta que fica: a Anthropic vai lutar contra isso ou abraçar? Hoje, o DeepClaude funciona porque a Anthropic não bloqueia o redirecionamento de API. Se um dia decidirem fechar o Claude Code para aceitar apenas modelos Anthropic, a comunidade simplesmente migraria para alternativas open source como o OpenCode ou o Hermes.
Minha aposta? A Anthropic vai manter o Claude Code aberto a backends alternativos, mas vai investir pesado para que o Opus continue sendo o modelo que entrega a melhor experiência dentro do harness. A estratégia é fazer você querer usar o Opus, não te forçar.
E honestamente? Com a diferença no SWE-bench Pro (64.3% vs 55.4%), quem trabalha com código complexo vai continuar pagando pelo Opus. O DeepClaude é perfeito para 80% dos casos de uso. Os outros 20% justificam o premium.
O repositório está no GitHub com licença MIT: vale a pena testar e tirar suas próprias conclusões. Se a sua conta de API está te fazendo perder o sono, essa pode ser a solução que você estava esperando.














