Você já reparou que às vezes a IA responde exatamente o que você precisa — e outras vezes entrega algo genérico que serve para qualquer pessoa? A diferença não está no modelo. Está em um documento de uma página que você provavelmente nunca escreveu.
Um estudo do MIT Sloan publicado em 2025 revelou algo que deveria mudar a forma como pensamos sobre IA: quase 50% da melhoria nos resultados ao trocar de modelo vem de como o usuário adapta seus prompts — não do modelo em si. Ou seja, metade do “upgrade” que você atribui ao GPT-5 ou ao Claude Opus na verdade vem de você escrever melhor para a IA.
E o jeito mais eficiente de “escrever melhor para a IA” não é decorar técnicas de prompt engineering. É criar um único documento — uma página — que a IA lê antes de cada resposta.
Esse documento tem nomes diferentes dependendo da ferramenta: system prompt, custom instructions, CLAUDE.md, .cursorrules, copilot-instructions.md. Mas o princípio é o mesmo: dar contexto persistente para que a IA pare de adivinhar e comece a responder com precisão.
Neste artigo, vou mostrar por que funciona, como montar o seu, e como configurar em cada ferramenta — Claude, ChatGPT, Gemini, Copilot, Cursor e mais.
Por Que Um Documento de Uma Página Muda Tudo
O problema: IA sem contexto é IA genérica
Quando você faz uma pergunta solta para uma IA, ela precisa adivinhar:
- Quem é você? Dev sênior? Estudante? Gestor?
- O que você quer? Resumo rápido? Análise profunda? Código pronto?
- Como quer a resposta? Formal? Direto ao ponto? Com exemplos?
- O que NÃO fazer? Evitar jargão? Não inventar dados? Não enrolar?
Sem essas informações, a IA escolhe o caminho mais “seguro” — que é o mais genérico. E genérico não serve para ninguém.
A solução: contexto persistente
O documento de uma página é um contrato entre você e a IA. Ele responde de antemão todas as perguntas que o modelo teria que adivinhar. Fica carregado em toda conversa, como uma memória permanente.
Pense assim: chamar a IA sem documento é como ligar para um táxi e dizer “me leva pra um lugar legal.” O motorista vai te levar pra algum lugar — mas provavelmente não é onde você queria. O documento é o endereço completo, com ponto de referência e instrução de qual portão entrar.
Os números não mentem
Não estou falando de “sensação” — há dados concretos:
- MIT Sloan (2025): ~50% da melhoria de qualidade ao trocar de modelo vem da adaptação do prompt pelo usuário, não do modelo superior. (Fonte)
- Estudo médico (PMC, 2025): Precisão saltou de 80,1% para 99,6% apenas adicionando prompts estruturados às consultas médicas com IA. (Fonte)
- Anthropic (2025): Context engineering — a evolução do prompt engineering — resultou em 54% melhor desempenho de agentes de IA comparado com abordagens tradicionais. (Fonte)
- SAGE Journal (Choi et al., 2025): A qualidade da engenharia de prompt prevê diretamente a qualidade das saídas do LLM. (Fonte)
“O fato de que quase metade da melhoria veio do comportamento do usuário desafia a crença de que modelos melhores sozinhos geram resultados melhores.”
David Holtz, pesquisador do MIT
Anatomia do Documento Perfeito
Não importa a ferramenta — Claude, ChatGPT, Gemini, Copilot — a estrutura ideal tem 5 blocos:
1. Quem sou eu (contexto do usuário)
Sou desenvolvedor backend sênior, trabalho com Python e Azure.
Lidero uma equipe de 4 devs. Nosso stack: FastAPI, PostgreSQL, Docker, GitHub Actions.
Ambiente: produção com CI/CD, 3 microserviços.
Isso elimina respostas para iniciantes quando você é sênior, e vice-versa.
2. O que você faz (papel da IA)
Você é um arquiteto de software pragmático.
Priorize soluções simples que funcionem em produção.
Evite over-engineering.
Quando você define um papel, a IA ativa padrões de linguagem associados a esse perfil — respostas mais técnicas, mais objetivas, mais estruturadas.
3. Como responder (formato e tom)
- Respostas diretas, sem enrolação
- Código funcional com tratamento de erro
- Quando listar mais de 3 itens, use bullet points
- Sempre explique o "porquê", não só o "como"
4. Regras e restrições
- Nunca sugira soluções que exijam licença paga sem avisar
- Sempre inclua tratamento de erro nos exemplos de código
- Se não souber algo, diga "não sei" em vez de inventar
- Priorize bibliotecas padrão do Python antes de instalar dependências
5. Exemplos (opcional, mas poderoso)
Quando eu pedir "review" de um código, responda no formato:
## Problemas encontrados
- [lista]
## Sugestões de melhoria
- [lista]
## Código corrigido
[bloco de código]
A Anthropic recomenda: “Encontre o menor conjunto de informações de alto sinal que maximize os resultados desejados.” Não precisa ser um ensaio — precisa ser preciso.
Antes vs. Depois: O Impacto Real
❌ Sem documento
Pergunta: “Como faço deploy de uma API?”
Resposta: 3 parágrafos genéricos mencionando Heroku, AWS, GCP, Azure, Docker, Kubernetes… Tudo e nada ao mesmo tempo. Você precisa filtrar 80% do texto para encontrar algo útil.
✅ Com documento
Documento: “Dev Python, FastAPI, Azure, CI/CD via GitHub Actions. Respostas diretas com comandos copiáveis.”
Mesma pergunta: “Como faço deploy de uma API?”
Resposta: Passo a passo com FastAPI no Azure App Service, Dockerfile otimizado, workflow YAML para GitHub Actions, e comandos az prontos para colar no terminal.
Mesma pergunta. Resposta 10x mais útil.
Como Configurar em Cada Ferramenta
Aqui está o guia prático para ativar o “documento de uma página” nas principais IAs e ferramentas de código:
🟠 Claude (Anthropic)
Claude oferece 3 formas de configurar instruções persistentes:
| Método | Onde | Para quem |
|---|---|---|
| Claude Projects | claude.ai → Projects → Custom Instructions | Qualquer pessoa |
| API (system prompt) | Parâmetro system na chamada de API | Desenvolvedores |
| CLAUDE.md | Arquivo na raiz do projeto (Claude Code CLI) | Devs usando Claude Code |
Claude Projects é o jeito mais fácil: crie um projeto no claude.ai, vá em configurações, e cole suas instruções no campo “Custom Instructions”. Todas as conversas dentro daquele projeto seguirão suas regras.
CLAUDE.md é para quem usa o Claude Code (CLI). Crie um arquivo CLAUDE.md na raiz do seu projeto. O Claude lê automaticamente no início de cada sessão. A hierarquia funciona assim:
~/.claude/CLAUDE.md— preferências globais (todos os projetos)./CLAUDE.md— instruções do projeto (compartilhe via git!)./subpasta/CLAUDE.md— instruções específicas para componentes
Todos são mesclados automaticamente. Dica: use /init no Claude Code para gerar um arquivo inicial.
🟢 ChatGPT (OpenAI)
Caminho: Settings → Personalization → Custom Instructions → ativar o toggle.
Dois campos disponíveis:
- “What would you like ChatGPT to know about you?” — seu papel, background, contexto profissional
- “How would you like ChatGPT to respond?” — tom, formato, estilo, restrições
Limite: 1.500 caracteres por campo. Aplica-se a todas as novas conversas imediatamente.
Para instruções mais complexas, crie um GPT personalizado — o campo “Instructions” do GPT tem limite bem maior.
🔵 Google Gemini
Gemini tem 3 métodos:
- App Gemini: gemini.google.com → Settings → Personal Intelligence → Instructions for Gemini
- Custom Gems: Sidebar → Explore Gems → New Gem (nome + instruções — como criar um “mini-agente”)
- Gemini CLI: Arquivo
GEMINI.mdna raiz do projeto (mesmo conceito do CLAUDE.md)
O Gemini CLI usa a mesma hierarquia do Claude Code: ~/.gemini/GEMINI.md para global, ./GEMINI.md para projeto.
🟣 GitHub Copilot
Crie o arquivo .github/copilot-instructions.md na raiz do repositório. O Copilot lê automaticamente em todas as interações de chat e inline.
Para instruções específicas por diretório ou tipo de arquivo, crie arquivos .instructions.md com um campo applyTo:
---
applyTo: "**/*.py"
---
Use type hints em todas as funções.
Docstrings no formato Google style.
Testes com pytest.
Administradores de organização podem adicionar instruções no nível da org inteira.
🟡 Cursor
O sistema evoluiu recentemente:
- Legado:
.cursorrulesna raiz (será descontinuado) - Novo: Diretório
.cursor/rules/com arquivos individuais por regra - Global: Cursor Settings → General → Rules for AI
A comunidade mantém repositórios enormes de regras prontas: awesome-cursorrules no GitHub tem centenas de configurações por linguagem e framework.
🔴 Windsurf
- Global:
global_rules.md - Workspace:
.windsurfrulesna raiz do projeto - Dica oficial: “3-5 regras altamente específicas superam listas longas de regras”
Tabela comparativa completa
| Ferramenta | Arquivo / Local | Escopo |
|---|---|---|
| Claude Code | CLAUDE.md | Projeto + global |
| Claude Projects | Settings do projeto (claude.ai) | Por projeto |
| ChatGPT | Settings → Custom Instructions | Todas as conversas |
| ChatGPT GPTs | Instructions do GPT | Por GPT |
| Gemini App | Settings → Instructions | Todas as conversas |
| Gemini CLI | GEMINI.md | Projeto + global |
| GitHub Copilot | .github/copilot-instructions.md | Por repositório |
| Cursor | .cursor/rules/ | Por projeto |
| Windsurf | .windsurfrules | Projeto + global |
Context Engineering: A Evolução do Prompt Engineering
A Anthropic publicou em 2025 um framework que redefine como devemos pensar sobre instruções para IA. Eles chamam de Context Engineering — e o argumento é que já passamos da era do “prompt engineering” (encontrar as palavras certas) para a era de curar o contexto ideal.
“Construir com modelos de linguagem está se tornando menos sobre encontrar as palavras certas e mais sobre responder: qual configuração de contexto tem mais probabilidade de gerar o comportamento desejado?”
Anthropic Engineering
O framework tem 4 estratégias:
1. Writing (Escrita)
Calibração do system prompt: encontrar o equilíbrio entre muito específico (frágil, quebra em cenários inesperados) e muito vago (volta ao genérico). A Anthropic chama isso de “Princípio da Altitude Certa” — nem muito alto (abstrato demais), nem muito baixo (microgerenciamento).
2. Selection (Seleção)
Recuperação de contexto just-in-time. Em vez de enfiar tudo no prompt, a IA busca informação quando precisa. É assim que o Claude Code funciona: usa comandos como head, tail e grep para analisar arquivos grandes sem carregar tudo no contexto.
3. Compression (Compressão)
Para tarefas longas que excedem a janela de contexto: sumarizar histórico de conversas, limpar resultados de ferramentas após uso, usar sub-agentes especializados que retornam resumos condensados (1.000-2.000 tokens).
4. Isolation (Isolamento)
Memória agêntica estruturada. Exemplo real: o Claude jogando Pokémon manteve contagens precisas ao longo de milhares de passos via arquivos de memória externos — habilitando coerência multi-hora através de resets de contexto.
O conceito crucial aqui é o de “Context Rot” (deterioração de contexto): conforme o contexto cresce, a capacidade do modelo de relembrar informações específicas diminui — porque o número de relações entre tokens cresce quadraticamente. Por isso, mais contexto nem sempre é melhor. Melhor contexto é melhor.
5 Erros que Arruinam o Seu Documento
- Documento longo demais — Se passar de 200 linhas, a IA começa a “esquecer” partes. Cada linha custa tokens de contexto. Seja cirúrgico.
- Instruções vagas — “Seja útil” não diz nada. “Responda em bullet points quando listar mais de 3 itens” muda o comportamento.
- Só regras negativas — A Anthropic recomenda: exemplos positivos superam negativos. Mostre o que fazer, não só o que evitar.
- Nunca atualizar — Seu documento deve evoluir com o uso. Quando a IA erra repetidamente, adicione uma regra. Quando uma regra vira óbvia, remova.
- Colocar dados sensíveis — NUNCA coloque API keys, senhas ou credenciais no documento. Especialmente se for commitado no git.
Template Pronto para Copiar
Aqui está um template que funciona em qualquer ferramenta — adapte para o seu caso:
# Contexto
Sou [sua profissão/papel], trabalho com [tecnologias/área].
Meu nível de experiência: [iniciante/intermediário/sênior].
Meu stack principal: [liste as tecnologias].
# Seu Papel
Você é um [definição do papel da IA].
Priorize [o que é mais importante].
Evite [o que não quer].
# Formato das Respostas
- [regra de formato 1]
- [regra de formato 2]
- [regra de formato 3]
# Regras
- [restrição 1]
- [restrição 2]
- [restrição 3]
# Exemplos (opcional)
Quando eu pedir [tipo de tarefa], responda no formato:
[formato esperado]
Cole isso nas Custom Instructions do ChatGPT, num Claude Project, no seu CLAUDE.md, ou no .github/copilot-instructions.md. Em 5 minutos, todas as suas conversas com IA melhoram drasticamente.
O Que Muda na Prática
Depois de configurar um documento de uma página, você vai notar:
- Menos tempo corrigindo respostas da IA
- Respostas que já vêm no formato que você precisa
- Menos “alucinações” (a IA inventa menos quando tem contexto claro)
- Consistência entre conversas diferentes
- Sensação de que a IA “te conhece” — porque, num sentido real, ela conhece
O documento de uma página transforma uma IA generalista em uma IA especialista no seu contexto. Não muda o modelo — muda o que o modelo prioriza. É a diferença entre ter um assistente que acabou de ser contratado e um que trabalha com você há meses.
Configure o seu hoje. São 5 minutos que vão te poupar horas.
Fontes e Referências
- MIT Sloan — Generative AI Results Depend on User Prompts
- Anthropic — Effective Context Engineering for AI Agents
- Anthropic — Using CLAUDE.md Files
- Anthropic — Prompting Best Practices
- PMC — Balancing Accuracy in AI Healthcare
- SAGE — Effects of Prompt Elements on Problem-Solving
- OpenAI — ChatGPT Custom Instructions
- Google — Customize Gemini Responses
- GitHub — Custom Instructions for Copilot
- Cursor — Rules for AI
- awesome-cursorrules — GitHub
👉 Leia também:
• Skills para Claude: O Guia Completo para Criar, Configurar e Aproveitar ao Máximo
• O Prompt Perfeito Existe — e Ele Custa 80% Menos Tokens do que o Seu
• Claude Vault: O Projeto Open Source que Criptografa a Memória do Seu Agente Claude
• Claude Code Devorou o Orçamento Anual de IA da Uber em 4 Meses
• Código-Fonte do Claude Code Vazou no NPM: O Que Descobriram Lá Dentro














