Um cara de 23 anos, uma tarde de segunda-feira e o ChatGPT
Liam Price não tem mestrado. Não tem doutorado. Não é pesquisador de nenhuma universidade. Ele é um jovem de 23 anos que, numa segunda-feira qualquer, decidiu copiar um problema matemático de um site e colar no ChatGPT.
O problema em questão? Uma conjectura formulada por Paul Erdős — um dos matemáticos mais prolíficos da história — que permanecia sem solução há 60 anos. Matemáticos de Stanford, Cambridge e UCLA tentaram. Ninguém resolveu.
O ChatGPT resolveu em 80 minutos.
E a parte mais surpreendente não é que a IA resolveu. É como ela resolveu — usando uma abordagem que nenhum ser humano havia considerado.
O que são conjuntos primitivos (e por que importam)
Para entender o que Price fez, precisamos falar de conjuntos primitivos. A ideia é simples: um conjunto de números inteiros onde nenhum número divide outro de maneira exata.
Por exemplo, {6, 10, 15} é um conjunto primitivo — 6 não divide 10, 10 não divide 15, 15 não divide 6. Já {6, 12, 15} não é, porque 6 divide 12.
Erdős era fascinado por esses conjuntos. Ele definiu um “score” calculável para cada conjunto primitivo — a chamada soma de Erdős. Sua conjectura, formulada nos anos 1960, dizia que para conjuntos primitivos de números cada vez maiores, essa soma converge para um valor mínimo de exatamente 1.
Parece abstrato? É. Mas conjuntos primitivos têm conexões profundas com a teoria dos números primos, criptografia e até otimização computacional. Resolver essa conjectura não é só um exercício acadêmico — ela valida propriedades fundamentais de como números se comportam em larga escala.
O Problema #1196 de Erdős
O resultado específico é o Erdős Problem #1196, catalogado no site erdosproblems.com — um repositório que lista centenas de problemas abertos formulados por Erdős ao longo da vida. Muitos desses problemas vêm com prêmios em dinheiro que o próprio Erdős oferecia (e que seus amigos continuam pagando após sua morte em 1996).
O #1196 não é um problema de graduação. Jared Duker Lichtman, pesquisador de Stanford, provou uma conjectura relacionada — sobre o máximo das somas de Erdős — em sua tese de doutorado em 2022. Mas o mínimo? Ninguém conseguiu.
Lichtman descreveu depois que os matemáticos que olharam para o problema “coletivamente fizeram uma curva errada logo no primeiro passo”. Todo mundo seguiu a mesma intuição — e a intuição estava errada.
“Eu nem sabia o que era esse problema”
Eis a parte absurda da história. Price não escolheu esse problema por ser famoso ou importante. Ele e seu parceiro Kevin Barreto — um estudante do segundo ano de matemática em Cambridge — tinham um hobby peculiar: escolhiam problemas aleatórios do site erdosproblems.com e jogavam no ChatGPT para “ver o que saía”.
“Eu não sabia o que era o problema. Eu só estava fazendo problemas de Erdős como faço às vezes, dando para a IA e vendo o que ela consegue resolver.”
— Liam Price, ao Scientific American
Eles chamaram isso de “vibe mathing” — uma referência ao “vibe coding”, aquela prática de programar deixando a IA fazer a maior parte do trabalho enquanto você pilota a direção.
No final de 2025, Price e Barreto começaram essa brincadeira com a versão gratuita do ChatGPT. Um pesquisador de IA ficou tão intrigado que deu a cada um deles uma assinatura do ChatGPT Pro para continuar os experimentos.
E foi com o GPT-5.4 Pro que, naquela segunda-feira, Price colou o Problema #1196 — e o modelo cuspiu uma prova em aproximadamente 80 minutos.
A reação de Terence Tao
Quando a notícia chegou a Terence Tao — medalha Fields, considerado por muitos o maior matemático vivo — ele não descartou. Pelo contrário: verificou pessoalmente a prova.
O que Tao encontrou foi revelador. O ChatGPT usou uma fórmula bem conhecida em áreas adjacentes da matemática, mas que ninguém havia pensado em aplicar a esse tipo de problema.
“O LLM seguiu um caminho completamente diferente, usando uma fórmula bem conhecida em partes relacionadas da matemática, mas que ninguém havia pensado em aplicar a esse tipo de questão.”
— Terence Tao, UCLA
Tao e Lichtman depois refinaram a prova para extrair melhor o insight central que a IA havia produzido. E Lichtman — o cara de Stanford que estudou esse tema durante anos — teve uma reação mista. Ele reconheceu que a saída bruta do ChatGPT era “bastante pobre” em termos de redação matemática:
“A saída bruta da prova do ChatGPT era, na verdade, bastante ruim. Era necessário um especialista para filtrar e realmente entender o que ele estava tentando dizer.”
— Jared Duker Lichtman, Stanford
Mas o insight central era real. A abordagem era original. E o resultado era correto.
A prova “do Livro”
Erdős tinha um conceito famoso: O Livro. Para ele, Deus (ou alguma entidade superior) mantinha um livro com as provas mais elegantes e perfeitas de cada teorema. Quando uma prova era particularmente bonita, Erdős dizia que vinha “do Livro”.
Lichtman, ao analisar a prova produzida pela IA, descreveu-a como algo que parecia vir “do Livro” — uma vez que você limpasse a prosa descuidada e extraísse a essência matemática.
Isso é fascinante por um motivo: a IA não busca elegância. Ela não tem senso estético. Mas ao explorar um espaço de soluções sem os vieses que guiaram décadas de tentativas humanas, ela tropeçou numa rota que, por acaso, era a mais elegante possível.
| Aspecto | Humanos (60 anos) | ChatGPT (80 min) |
|---|---|---|
| ——— | ——————- | ——————- |
| Abordagem | Todas seguiram o mesmo caminho | Rota completamente nova |
| Tempo de tentativa | Décadas, múltiplos PhDs | 80 minutos, sessão única |
| Qualidade da redação | Alta | “Bastante pobre” |
| Insight central | Nunca encontrado | Original e correto |
| Elegância final | — | “Do Livro” (após refinamento) |
O fenômeno “AI-for-Erdős”
Price e Barreto não são os únicos. O que começou como um hobby de dois jovens virou um fenômeno.
Em janeiro de 2026, três problemas de Erdős caíram em uma única semana — os problemas #397, #728 e #729. As provas foram geradas por IA, formalizadas no sistema Lean (um assistente de provas formal), e verificadas por Terence Tao pessoalmente.
Em março de 2026, o próprio Tao publicou um paper no arXiv — “Local Bernstein theory, and lower bounds for Lebesgue constants” — onde uma das desigualdades-chave foi provada pelo ChatGPT Pro. A IA reconheceu um padrão em um sub-problema bem definido, aplicou uma técnica conhecida, e devolveu algo que Tao pôde verificar e expandir.
Vários matemáticos já preveem que 2026 será o ano em que provas com contribuição declarada de IA passarão por revisão por pares em journals importantes de matemática. Estamos falando de uma mudança na própria definição de autoria em ciência.
Timeline da revolução "vibe math":
Final de 2025 → Price e Barreto começam a jogar problemas no ChatGPT gratuito
Janeiro 2026 → 3 problemas de Erdős caem em 7 dias (GPT-5.2)
Março 2026 → Terence Tao usa ChatGPT em paper publicado no arXiv
Abril 2026 → Problem #1196 resolvido (GPT-5.4 Pro) — 60 anos de tentativas
O que a IA faz de diferente (e o que ela não faz)
A real é que o ChatGPT não é um gênio matemático. Tao deixou isso bem claro: esses são os “frutos mais baixos” — problemas resolúveis com técnicas padrão aplicadas de forma nova. Problemas que ninguém priorizou porque eram de nicho demais ou porque os melhores matemáticos do mundo tinham coisas mais importantes para fazer.
A IA brilha nesse cenário por três motivos:
1. Sem viés de caminho
Humanos que estudam um problema por anos acabam convergindo para as mesmas abordagens. A IA não tem esse histórico. Ela explora o espaço de soluções de forma diferente — e às vezes encontra caminhos que humanos descartaram inconscientemente.
2. Acesso a padrões cross-domain
O ChatGPT foi treinado em toda a matemática publicada. Quando Tao diz que a IA usou “uma fórmula bem conhecida em partes relacionadas”, ele está descrevendo algo que um humano especializado dificilmente faria: pegar uma ferramenta de uma gaveta que ele nunca abriu.
3. Volume de tentativas
Uma sessão de 80 minutos para uma IA pode envolver explorar centenas de abordagens internamente. Um matemático humano pode levar semanas para testar duas ou três.
Mas a IA também falha. A prosa é descuidada. O raciocínio intermediário pode ter gaps lógicos. Sem um especialista humano para verificar, filtrar e refinar, o output bruto é inútil. É como ter um assistente que tem ideias brilhantes mas explica tudo de forma confusa — você precisa saber o suficiente para separar o ouro do lixo.
“Vibe mathing” é o novo paradigma?
Eu já vi gente comparar o que Price fez com o equivalente de uma criança apertando botões aleatórios num sintetizador e produzindo uma sinfonia. Mas essa analogia é injusta.
Price sabia o que estava fazendo. Ele entende matemática o suficiente para reconhecer quando uma saída faz sentido. Ele enviou a prova para Barreto, que tem formação em Cambridge. E o resultado foi verificado por Tao e Lichtman — dois dos maiores nomes da área.
O “vibe mathing” funciona não porque a IA resolve tudo sozinha, mas porque ela muda a natureza do trabalho. O matemático deixa de ser o “gerador de provas” e passa a ser o “curador de provas”. A IA propõe; o humano valida. E quando a proposta é brilhante — mesmo que mal escrita — o valor está lá.
Isso levanta uma questão incômoda: se um jovem de 23 anos sem doutorado pode resolver um problema de 60 anos usando ChatGPT… o que acontece com a carreira acadêmica? Com os programas de doutorado em matemática pura? Com a própria ideia de que resolver problemas difíceis exige décadas de treinamento?
O que isso muda para quem trabalha com código
Se você é dev e não vê conexão com seu dia a dia, pense de novo.
O mesmo padrão que funcionou aqui — jogar um problema para a IA sem viés prévio e ver o que sai — já está acontecendo em engenharia de software — como quando Matz usou o Claude para criar um compilador Ruby 86x mais rápido. Quantas vezes você bateu cabeça num bug por horas, colou o código no ChatGPT, e a resposta apareceu em 30 segundos? Não porque a IA é mais inteligente, mas porque ela não carregava seus pressupostos.
A diferença entre “vibe coding” e “vibe mathing” é apenas o domínio. O princípio é o mesmo: use a IA para explorar soluções que você, com seus vieses e hábitos, nunca consideraria.
Algumas aplicações práticas:
- Debugging: em vez de seguir sua intuição sobre onde o bug está, descreva o comportamento para a IA sem hipóteses
- Arquitetura: peça 5 abordagens diferentes para o mesmo problema antes de escolher
- Code review: deixe a IA revisar código que você escreveu — ela vai pegar coisas que seus olhos cansados ignoram
- Algoritmos: se você tem um problema de otimização, teste a abordagem da IA antes de implementar a sua
Os limites que ninguém quer admitir
Eu preciso ser honesto aqui. A cobertura dessa história pela mídia tech tem sido incrivelmente otimista — e com razão, é uma história ótima. Mas existem limitações reais.
Tao foi explícito: os problemas que a IA resolve são os “mais fáceis” do catálogo de Erdős. São problemas que poderiam ter sido resolvidos por humanos, mas que simplesmente não foram priorizados. A IA não está fazendo matemática fundamentalmente nova (como vimos quando o GPT-5.5 falhou com lambda calculus) — ela está aplicando técnicas existentes de formas não-óbvias.
Para os problemas realmente duros — aqueles que exigem construir teoria nova, criar definições novas, repensar frameworks inteiros — a IA ainda está longe. Muito longe.
E tem o risco da sobre-confiança. Se amadores começarem a publicar “provas” geradas por IA sem verificação adequada, a matemática pode se transformar num mar de resultados duvidosos. A comunidade já está discutindo como lidar com isso — talvez exigindo que qualquer prova com contribuição de IA passe por um processo de verificação formal em sistemas como Lean.
O futuro da matemática (e da programação) é colaborativo
O que essa história realmente demonstra não é que a IA vai substituir matemáticos. É que a combinação humano + IA é mais poderosa do que qualquer um dos dois sozinhos.
Price trouxe a curiosidade e a disposição para experimentar. O ChatGPT trouxe uma perspectiva sem vieses e capacidade de processamento. Barreto trouxe o conhecimento formal. Tao e Lichtman trouxeram a verificação rigorosa.
Cada peça era essencial. Remova qualquer uma e o resultado não acontece.
Para devs, a lição é a mesma: pare de tratar a IA como uma ameaça ou como uma muleta. Trate como um colaborador com habilidades complementares às suas. Você entende contexto, requisitos de negócio e consequências. A IA explora espaços de solução sem fadiga e sem preconceitos.
Liam Price, 23 anos, sem diploma avançado, resolveu um problema de 60 anos numa tarde de segunda-feira. Não porque o ChatGPT é mágico. Mas porque ele fez a pergunta certa, para a ferramenta certa, no momento certo — e soube reconhecer quando a resposta era boa.
Se isso não muda a forma como você usa IA no seu trabalho, eu não sei o que vai mudar.
Fonte de inspiração: Amateur armed with ChatGPT ‘vibe-maths’ a 60-year-old problem — Scientific American













