Shopping cart

Subtotal $0.00

View cartCheckout

Building better devs

TnewsTnews
  • Home
  • Dicas
  • O Documento de Uma Pagina que Faz Qualquer IA Responder 10x Melhor
Dicas

O Documento de Uma Pagina que Faz Qualquer IA Responder 10x Melhor

Email : 61

Você já reparou que às vezes a IA responde exatamente o que você precisa — e outras vezes entrega algo genérico que serve para qualquer pessoa? A diferença não está no modelo. Está em um documento de uma página que você provavelmente nunca escreveu.

Um estudo do MIT Sloan publicado em 2025 revelou algo que deveria mudar a forma como pensamos sobre IA: quase 50% da melhoria nos resultados ao trocar de modelo vem de como o usuário adapta seus prompts — não do modelo em si. Ou seja, metade do “upgrade” que você atribui ao GPT-5 ou ao Claude Opus na verdade vem de você escrever melhor para a IA.

E o jeito mais eficiente de “escrever melhor para a IA” não é decorar técnicas de prompt engineering. É criar um único documento — uma página — que a IA lê antes de cada resposta.

Esse documento tem nomes diferentes dependendo da ferramenta: system prompt, custom instructions, CLAUDE.md, .cursorrules, copilot-instructions.md. Mas o princípio é o mesmo: dar contexto persistente para que a IA pare de adivinhar e comece a responder com precisão.

Neste artigo, vou mostrar por que funciona, como montar o seu, e como configurar em cada ferramenta — Claude, ChatGPT, Gemini, Copilot, Cursor e mais.

Por Que Um Documento de Uma Página Muda Tudo

O problema: IA sem contexto é IA genérica

Quando você faz uma pergunta solta para uma IA, ela precisa adivinhar:

  • Quem é você? Dev sênior? Estudante? Gestor?
  • O que você quer? Resumo rápido? Análise profunda? Código pronto?
  • Como quer a resposta? Formal? Direto ao ponto? Com exemplos?
  • O que NÃO fazer? Evitar jargão? Não inventar dados? Não enrolar?

Sem essas informações, a IA escolhe o caminho mais “seguro” — que é o mais genérico. E genérico não serve para ninguém.

A solução: contexto persistente

O documento de uma página é um contrato entre você e a IA. Ele responde de antemão todas as perguntas que o modelo teria que adivinhar. Fica carregado em toda conversa, como uma memória permanente.

Pense assim: chamar a IA sem documento é como ligar para um táxi e dizer “me leva pra um lugar legal.” O motorista vai te levar pra algum lugar — mas provavelmente não é onde você queria. O documento é o endereço completo, com ponto de referência e instrução de qual portão entrar.

Os números não mentem

Não estou falando de “sensação” — há dados concretos:

  • MIT Sloan (2025): ~50% da melhoria de qualidade ao trocar de modelo vem da adaptação do prompt pelo usuário, não do modelo superior. (Fonte)
  • Estudo médico (PMC, 2025): Precisão saltou de 80,1% para 99,6% apenas adicionando prompts estruturados às consultas médicas com IA. (Fonte)
  • Anthropic (2025): Context engineering — a evolução do prompt engineering — resultou em 54% melhor desempenho de agentes de IA comparado com abordagens tradicionais. (Fonte)
  • SAGE Journal (Choi et al., 2025): A qualidade da engenharia de prompt prevê diretamente a qualidade das saídas do LLM. (Fonte)

“O fato de que quase metade da melhoria veio do comportamento do usuário desafia a crença de que modelos melhores sozinhos geram resultados melhores.”

David Holtz, pesquisador do MIT

Anatomia do Documento Perfeito

Não importa a ferramenta — Claude, ChatGPT, Gemini, Copilot — a estrutura ideal tem 5 blocos:

1. Quem sou eu (contexto do usuário)

Sou desenvolvedor backend sênior, trabalho com Python e Azure.
Lidero uma equipe de 4 devs. Nosso stack: FastAPI, PostgreSQL, Docker, GitHub Actions.
Ambiente: produção com CI/CD, 3 microserviços.

Isso elimina respostas para iniciantes quando você é sênior, e vice-versa.

2. O que você faz (papel da IA)

Você é um arquiteto de software pragmático.
Priorize soluções simples que funcionem em produção.
Evite over-engineering.

Quando você define um papel, a IA ativa padrões de linguagem associados a esse perfil — respostas mais técnicas, mais objetivas, mais estruturadas.

3. Como responder (formato e tom)

- Respostas diretas, sem enrolação
- Código funcional com tratamento de erro
- Quando listar mais de 3 itens, use bullet points
- Sempre explique o "porquê", não só o "como"

4. Regras e restrições

- Nunca sugira soluções que exijam licença paga sem avisar
- Sempre inclua tratamento de erro nos exemplos de código
- Se não souber algo, diga "não sei" em vez de inventar
- Priorize bibliotecas padrão do Python antes de instalar dependências

5. Exemplos (opcional, mas poderoso)

Quando eu pedir "review" de um código, responda no formato:
## Problemas encontrados
- [lista]
## Sugestões de melhoria
- [lista]  
## Código corrigido
[bloco de código]

A Anthropic recomenda: “Encontre o menor conjunto de informações de alto sinal que maximize os resultados desejados.” Não precisa ser um ensaio — precisa ser preciso.

Antes vs. Depois: O Impacto Real

❌ Sem documento

Pergunta: “Como faço deploy de uma API?”

Resposta: 3 parágrafos genéricos mencionando Heroku, AWS, GCP, Azure, Docker, Kubernetes… Tudo e nada ao mesmo tempo. Você precisa filtrar 80% do texto para encontrar algo útil.

✅ Com documento

Documento: “Dev Python, FastAPI, Azure, CI/CD via GitHub Actions. Respostas diretas com comandos copiáveis.”

Mesma pergunta: “Como faço deploy de uma API?”

Resposta: Passo a passo com FastAPI no Azure App Service, Dockerfile otimizado, workflow YAML para GitHub Actions, e comandos az prontos para colar no terminal.

Mesma pergunta. Resposta 10x mais útil.

Como Configurar em Cada Ferramenta

Aqui está o guia prático para ativar o “documento de uma página” nas principais IAs e ferramentas de código:

🟠 Claude (Anthropic)

Claude oferece 3 formas de configurar instruções persistentes:

MétodoOndePara quem
Claude Projectsclaude.ai → Projects → Custom InstructionsQualquer pessoa
API (system prompt)Parâmetro system na chamada de APIDesenvolvedores
CLAUDE.mdArquivo na raiz do projeto (Claude Code CLI)Devs usando Claude Code

Claude Projects é o jeito mais fácil: crie um projeto no claude.ai, vá em configurações, e cole suas instruções no campo “Custom Instructions”. Todas as conversas dentro daquele projeto seguirão suas regras.

CLAUDE.md é para quem usa o Claude Code (CLI). Crie um arquivo CLAUDE.md na raiz do seu projeto. O Claude lê automaticamente no início de cada sessão. A hierarquia funciona assim:

  • ~/.claude/CLAUDE.md — preferências globais (todos os projetos)
  • ./CLAUDE.md — instruções do projeto (compartilhe via git!)
  • ./subpasta/CLAUDE.md — instruções específicas para componentes

Todos são mesclados automaticamente. Dica: use /init no Claude Code para gerar um arquivo inicial.

🟢 ChatGPT (OpenAI)

Caminho: Settings → Personalization → Custom Instructions → ativar o toggle.

Dois campos disponíveis:

  1. “What would you like ChatGPT to know about you?” — seu papel, background, contexto profissional
  2. “How would you like ChatGPT to respond?” — tom, formato, estilo, restrições

Limite: 1.500 caracteres por campo. Aplica-se a todas as novas conversas imediatamente.

Para instruções mais complexas, crie um GPT personalizado — o campo “Instructions” do GPT tem limite bem maior.

🔵 Google Gemini

Gemini tem 3 métodos:

  • App Gemini: gemini.google.com → Settings → Personal Intelligence → Instructions for Gemini
  • Custom Gems: Sidebar → Explore Gems → New Gem (nome + instruções — como criar um “mini-agente”)
  • Gemini CLI: Arquivo GEMINI.md na raiz do projeto (mesmo conceito do CLAUDE.md)

O Gemini CLI usa a mesma hierarquia do Claude Code: ~/.gemini/GEMINI.md para global, ./GEMINI.md para projeto.

🟣 GitHub Copilot

Crie o arquivo .github/copilot-instructions.md na raiz do repositório. O Copilot lê automaticamente em todas as interações de chat e inline.

Para instruções específicas por diretório ou tipo de arquivo, crie arquivos .instructions.md com um campo applyTo:

---
applyTo: "**/*.py"
---
Use type hints em todas as funções.
Docstrings no formato Google style.
Testes com pytest.

Administradores de organização podem adicionar instruções no nível da org inteira.

🟡 Cursor

O sistema evoluiu recentemente:

  • Legado: .cursorrules na raiz (será descontinuado)
  • Novo: Diretório .cursor/rules/ com arquivos individuais por regra
  • Global: Cursor Settings → General → Rules for AI

A comunidade mantém repositórios enormes de regras prontas: awesome-cursorrules no GitHub tem centenas de configurações por linguagem e framework.

🔴 Windsurf

  • Global: global_rules.md
  • Workspace: .windsurfrules na raiz do projeto
  • Dica oficial: “3-5 regras altamente específicas superam listas longas de regras”

Tabela comparativa completa

FerramentaArquivo / LocalEscopo
Claude CodeCLAUDE.mdProjeto + global
Claude ProjectsSettings do projeto (claude.ai)Por projeto
ChatGPTSettings → Custom InstructionsTodas as conversas
ChatGPT GPTsInstructions do GPTPor GPT
Gemini AppSettings → InstructionsTodas as conversas
Gemini CLIGEMINI.mdProjeto + global
GitHub Copilot.github/copilot-instructions.mdPor repositório
Cursor.cursor/rules/Por projeto
Windsurf.windsurfrulesProjeto + global

Context Engineering: A Evolução do Prompt Engineering

A Anthropic publicou em 2025 um framework que redefine como devemos pensar sobre instruções para IA. Eles chamam de Context Engineering — e o argumento é que já passamos da era do “prompt engineering” (encontrar as palavras certas) para a era de curar o contexto ideal.

“Construir com modelos de linguagem está se tornando menos sobre encontrar as palavras certas e mais sobre responder: qual configuração de contexto tem mais probabilidade de gerar o comportamento desejado?”

Anthropic Engineering

O framework tem 4 estratégias:

1. Writing (Escrita)

Calibração do system prompt: encontrar o equilíbrio entre muito específico (frágil, quebra em cenários inesperados) e muito vago (volta ao genérico). A Anthropic chama isso de “Princípio da Altitude Certa” — nem muito alto (abstrato demais), nem muito baixo (microgerenciamento).

2. Selection (Seleção)

Recuperação de contexto just-in-time. Em vez de enfiar tudo no prompt, a IA busca informação quando precisa. É assim que o Claude Code funciona: usa comandos como head, tail e grep para analisar arquivos grandes sem carregar tudo no contexto.

3. Compression (Compressão)

Para tarefas longas que excedem a janela de contexto: sumarizar histórico de conversas, limpar resultados de ferramentas após uso, usar sub-agentes especializados que retornam resumos condensados (1.000-2.000 tokens).

4. Isolation (Isolamento)

Memória agêntica estruturada. Exemplo real: o Claude jogando Pokémon manteve contagens precisas ao longo de milhares de passos via arquivos de memória externos — habilitando coerência multi-hora através de resets de contexto.

O conceito crucial aqui é o de “Context Rot” (deterioração de contexto): conforme o contexto cresce, a capacidade do modelo de relembrar informações específicas diminui — porque o número de relações entre tokens cresce quadraticamente. Por isso, mais contexto nem sempre é melhor. Melhor contexto é melhor.

5 Erros que Arruinam o Seu Documento

  1. Documento longo demais — Se passar de 200 linhas, a IA começa a “esquecer” partes. Cada linha custa tokens de contexto. Seja cirúrgico.
  2. Instruções vagas — “Seja útil” não diz nada. “Responda em bullet points quando listar mais de 3 itens” muda o comportamento.
  3. Só regras negativas — A Anthropic recomenda: exemplos positivos superam negativos. Mostre o que fazer, não só o que evitar.
  4. Nunca atualizar — Seu documento deve evoluir com o uso. Quando a IA erra repetidamente, adicione uma regra. Quando uma regra vira óbvia, remova.
  5. Colocar dados sensíveis — NUNCA coloque API keys, senhas ou credenciais no documento. Especialmente se for commitado no git.

Template Pronto para Copiar

Aqui está um template que funciona em qualquer ferramenta — adapte para o seu caso:

# Contexto
Sou [sua profissão/papel], trabalho com [tecnologias/área].
Meu nível de experiência: [iniciante/intermediário/sênior].
Meu stack principal: [liste as tecnologias].

# Seu Papel
Você é um [definição do papel da IA].
Priorize [o que é mais importante].
Evite [o que não quer].

# Formato das Respostas
- [regra de formato 1]
- [regra de formato 2]
- [regra de formato 3]

# Regras
- [restrição 1]
- [restrição 2]
- [restrição 3]

# Exemplos (opcional)
Quando eu pedir [tipo de tarefa], responda no formato:
[formato esperado]

Cole isso nas Custom Instructions do ChatGPT, num Claude Project, no seu CLAUDE.md, ou no .github/copilot-instructions.md. Em 5 minutos, todas as suas conversas com IA melhoram drasticamente.

O Que Muda na Prática

Depois de configurar um documento de uma página, você vai notar:

  • Menos tempo corrigindo respostas da IA
  • Respostas que já vêm no formato que você precisa
  • Menos “alucinações” (a IA inventa menos quando tem contexto claro)
  • Consistência entre conversas diferentes
  • Sensação de que a IA “te conhece” — porque, num sentido real, ela conhece

O documento de uma página transforma uma IA generalista em uma IA especialista no seu contexto. Não muda o modelo — muda o que o modelo prioriza. É a diferença entre ter um assistente que acabou de ser contratado e um que trabalha com você há meses.

Configure o seu hoje. São 5 minutos que vão te poupar horas.


Fontes e Referências


👉 Leia também:
Skills para Claude: O Guia Completo para Criar, Configurar e Aproveitar ao Máximo
O Prompt Perfeito Existe — e Ele Custa 80% Menos Tokens do que o Seu
Claude Vault: O Projeto Open Source que Criptografa a Memória do Seu Agente Claude
Claude Code Devorou o Orçamento Anual de IA da Uber em 4 Meses
Código-Fonte do Claude Code Vazou no NPM: O Que Descobriram Lá Dentro

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Posts