Shopping cart

Subtotal $0.00

View cartCheckout

Building better devs

TnewsTnews
  • Home
  • Notícias
  • ‘Sociopata’: O Dossiê da New Yorker que Destrói Sam Altman
Notícias

‘Sociopata’: O Dossiê da New Yorker que Destrói Sam Altman

Investigação da New Yorker sobre Sam Altman e OpenAI - memos secretos e acusações de sociopatia
Email : 75

Sam Altman é, sem exagero, o homem mais poderoso da tecnologia hoje. CEO da OpenAI, a empresa por trás do ChatGPT, ele comanda uma operação avaliada em US$300 bilhões que está mudando como trabalhamos, estudamos e pensamos. Mas uma investigação bombástica publicada pela New Yorker nesta semana — conduzida pelos jornalistas Ronan Farrow e Andrew Marantz durante 18 meses — revela um retrato perturbador do líder que pode estar definindo o futuro da humanidade.

A reportagem analisou mais de 200 páginas de documentos internos da OpenAI e entrevistou mais de 100 fontes. O que encontrou? Um padrão consistente de mentiras, manipulação e promessas quebradas que se repete ao longo de toda a carreira de Altman — desde sua primeira startup até a direção da empresa de IA mais influente do mundo.

O memo de Ilya Sutskever: “O problema da OpenAI é o Sam”

A história mais explosiva da investigação envolve documentos internos compilados secretamente por Ilya Sutskever, ex-cientista-chefe da OpenAI, nos meses que antecederam a famosa demissão de Altman em novembro de 2023.

O memo de Sutskever incluía mensagens do Slack, documentos de RH e capturas de tela de celular. Começava com uma lista de comportamentos atribuídos a Altman, e o primeiro item era direto: “Deception” (engano). Os membros do conselho que revisaram esses documentos chegaram a uma conclusão sombria: “O papel de Altman confiava a ele o futuro da humanidade, mas ele não podia ser confiável.”

Em paralelo, Dario Amodei — que depois fundou a Anthropic — compilou suas próprias anotações internas, intituladas “My Experience at OpenAI”. A frase central dessas notas não poderia ser mais clara: “O problema com a OpenAI é o próprio Sam.”

Esses dois documentos — o memo de Sutskever e as notas de Amodei — são as peças centrais que sustentam a narrativa da New Yorker. Dois dos maiores nomes da pesquisa em IA, que trabalharam lado a lado com Altman, chegaram independentemente à mesma conclusão.

“Desvinculado da verdade”

Uma citação de um ex-membro do conselho da OpenAI captura o retrato que a investigação pinta de Altman:

“Ele é desvinculado da verdade. Ele tem duas características que quase nunca são vistas na mesma pessoa. A primeira é um forte desejo de agradar as pessoas, de ser querido em qualquer interação. A segunda é uma falta quase sociopática de preocupação com as consequências que podem vir de enganar alguém.”

E essa não é uma voz isolada. Aaron Swartz, co-fundador do Y Combinator e ativista que morreu em 2013, deixou registrado um aviso que agora soa profético: “Você precisa entender que Sam nunca pode ser confiável. Ele é um sociopata. Ele faria qualquer coisa.”

Eu sei que “sociopata” é uma palavra forte. Mas quando essa caracterização vem de pessoas que trabalharam diretamente com ele — incluindo membros do conselho da empresa que ele fundou — é difícil ignorar.

O padrão começa na Loopt

Para quem acha que esses problemas surgiram apenas com o crescimento explosivo da OpenAI, a investigação da New Yorker faz questão de mostrar que o padrão é antigo.

Loopt foi a primeira startup de Altman, um app de compartilhamento de localização fundado em 2005 pelo Y Combinator. Parecia promissor. Mas internamente, a situação era diferente. Funcionários seniores da Loopt pediram ao conselho para demiti-lo como CEO — em duas ocasiões separadas. O motivo? Falta de transparência.

Os ex-funcionários reconheciam que Altman era carismático e inspirava lealdade. Mas também notavam uma tendência persistente ao exagero que minava a confiança interna. A Loopt eventualmente falhou, mas Altman saiu dela como presidente do Y Combinator — uma posição que lhe daria acesso ao Vale do Silício inteiro.

O que Farrow e Marantz documentam é que em cada parada da carreira de Altman — Loopt, Y Combinator, OpenAI — colegas levantaram preocupações semelhantes. Não é um incidente isolado. É um padrão de décadas.

O caso Dario Amodei: mentira cara a cara

Um dos episódios mais detalhados da investigação envolve o deal com a Microsoft em 2019, quando Amodei ainda era VP de Pesquisa na OpenAI.

Amodei apresentou a Altman uma lista de demandas de segurança que deveriam ser condição para aceitar o investimento da Microsoft. Altman concordou. Quando o acordo foi fechado em junho de 2019, Amodei descobriu uma cláusula adicional que eliminava sua prioridade principal de segurança.

Quando confrontou Altman, este negou que a cláusula existisse — mesmo depois de Amodei lê-la em voz alta. Pense nisso por um segundo. O CEO da empresa que promete salvar a humanidade da IA negou, na cara do colega, a existência de um texto que estava literalmente sendo lido para ele.

Amodei saiu e fundou a Anthropic logo depois. Agora sabemos por quê.

Microsoft: “Ele distorce, renegocia e volta atrás”

Se Altman tivesse esse tipo de comportamento apenas com colegas internos, já seria preocupante. Mas a investigação mostra que o padrão se estende aos parceiros de negócios mais importantes da OpenAI.

Executivos da Microsoft — que investiu bilhões na OpenAI — descreveram Altman como alguém que “repetidamente volta atrás no que diz”. Uma fonte resumiu assim: “Ele distorceu, representou de forma errada, renegociou e voltou atrás em acordos.”

O exemplo mais gritante: no mesmo dia em que a OpenAI reafirmou exclusividade com a Microsoft para uma linha de IA, a empresa anunciou um deal de US$50 bilhões com a Amazon. A Microsoft ameaçou processar.

Quando a relação com seu maior investidor — a empresa que literalmente financiou seus servidores — é marcada por ameaças de litígio, algo está fundamentalmente errado.

A segurança que foi embora

O que torna tudo isso mais do que fofoca corporativa é o contexto: estamos falando da empresa que está na vanguarda de uma tecnologia que pode literalmente transformar a civilização.

A OpenAI foi fundada em 2015 com uma premissa clara: IA representa um risco existencial, e por isso precisa de uma estrutura que priorize a humanidade acima do lucro. Era uma organização sem fins lucrativos por design.

O que aconteceu desde então?

O que prometeram O que fizeram
Estrutura sem fins lucrativos Conversão para PBC (empresa com fins lucrativos) em outubro de 2025
Segurança como prioridade #1 Dissolveram o time de risco existencial de IA
Supervisão do conselho Conselho reconstruído com aliados de Altman após a crise de 2023
Transparência com parceiros Repetidas acusações de distorção e quebra de acordos
Publicação aberta de pesquisa Modelos cada vez mais fechados e proprietários

A empresa dissolveu o time de superalinhamento que era co-liderado por Sutskever. Perdeu o chefe do time de alinhamento de missão. Perdeu o chefe do programa de preparação para AGI. E em uma mudança que diz tudo: removeu a palavra “safely” de sua declaração de missão.

Sue Yoon, ex-membro do conselho da OpenAI, ofereceu uma perspectiva mais nuançada — mas talvez ainda mais preocupante:

“Ele não é deliberadamente maquiavélico. Ele está muito preso em sua própria autocrença. Então ele faz coisas que, se você vive no mundo real, não fazem sentido. Mas ele não vive no mundo real.”

US$300 bilhões, US$14 bilhões em perdas

Vamos falar de dinheiro, porque os números contam sua própria história.

Em abril de 2025, a OpenAI levantou US$40 bilhões a uma avaliação de US$300 bilhões — o maior deal privado de tecnologia da história. Os títulos conversíveis de outubro de 2024 precisavam ser reembolsados com 9% de juros se a empresa não abandonasse sua estrutura sem fins lucrativos até o final de 2026.

Traduzindo: o incentivo financeiro para abandonar a missão de segurança era de dezenas de bilhões de dólares.

E as projeções? A OpenAI queima caixa de maneira espetacular. Analistas estimam US$14 bilhões em perdas projetadas para 2026. Até o próprio CFO da OpenAI expressou preocupações sobre a sustentabilidade do modelo financeiro, segundo reportagem do The Information.


Avaliação: US$300 bilhões
Perdas projetadas 2026: US$14 bilhões
Receita estimada: ~US$13 bilhões
Burn rate: insustentável sem novos aportes

Uma empresa que perde mais do que ganha, liderada por alguém que múltiplas fontes chamam de mentiroso compulsivo, desenvolvendo a tecnologia mais poderosa já criada. O que poderia dar errado?

A questão que ninguém responde

Gary Marcus, pesquisador de IA e crítico vocal de Altman, fez uma pergunta que a investigação da New Yorker torna ainda mais urgente: quem supervisiona as decisões de Altman sobre liberar modelos potencialmente perigosos?

Quando se trata de capacidades de bioarmas, ciberataques ou manipulação em massa, estamos confortáveis com o controle unilateral de uma única pessoa — uma pessoa que seus próprios colegas chamam de “desvinculado da verdade”?

O conselho da OpenAI, que deveria ser o mecanismo de controle, foi efetivamente reconstruído com aliados de Altman após a crise de novembro de 2023. Sutskever saiu. Amodei já tinha saído antes. Os membros do conselho que tentaram demiti-lo foram substituídos.

Eu já vi esse filme antes em tech. Um fundador carismático acumula poder, remove os mecanismos de controle, e todo mundo assume que vai dar certo porque “ele é visionário”. Às vezes dá certo. Às vezes dá WeWork, Theranos ou FTX.

O Worldcoin entra na conversa

A investigação da New Yorker foca na OpenAI, mas é impossível ignorar o Worldcoin — outro projeto de Altman que levanta questões de confiança.

O Worldcoin propõe escanear a íris de bilhões de pessoas para criar uma identidade digital verificável. Em teoria, é sobre provar que você é humano na era da IA. Na prática, é uma empresa de dados biométricos liderada por alguém que seus próprios colegas descrevem como “desvinculado da verdade”.

Após a publicação da matéria, o preço do token WLD caiu significativamente. Investidores começaram a precificar o risco de reputação. Afinal, se a pessoa por trás do projeto tem um “padrão de engano” documentado por mais de 100 fontes, entregar seus dados biométricos a ela parece cada vez mais difícil de justificar.

A pergunta que pouca gente faz: se Altman trata parceiros bilionários como a Microsoft dessa forma, como trataria bilhões de usuários comuns cujos dados de íris ele armazena?

O paralelo com SBF que ninguém quer fazer

A investigação da New Yorker não faz a comparação explicitamente, mas o mercado já está fazendo. Após a publicação, análises financeiras começaram a traçar paralelos entre Altman e Sam Bankman-Fried — outro Sam do mundo tech que era visto como gênio benevolente enquanto, segundo as evidências, operava de forma bem diferente do que sua imagem pública sugeria.

Ambos construíram impérios bilionários em setores de rápido crescimento. Ambos se posicionaram como altruístas efetivos preocupados com o futuro da humanidade. Ambos enfrentaram acusações de falta de transparência com investidores e parceiros.

A diferença? SBF já foi julgado e condenado. Altman está levantando mais dinheiro do que nunca.

Não estou dizendo que os dois são iguais — o contexto é diferente, os produtos são diferentes, a escala de impacto potencial é diferente. Mas estou dizendo que o padrão de “gênio tech acima de questionamento” deveria ter morrido com a FTX. E claramente não morreu. A comunidade tech continua premiando a confiança cega em fundadores carismáticos, mesmo quando as evidências dizem para fazer o contrário.

O que muda agora?

A reação imediata à investigação foi previsível. Apoiadores de Altman descartaram como hitpiece jornalístico. Críticos disseram “eu avisei”. O mercado mal reagiu.

Mas algumas coisas devem mudar:

Reguladores estão prestando atenção. A conversão para PBC ainda está sendo escrutinizada. Se há evidência documentada de que o CEO tem um “padrão de engano” — nas palavras dos próprios documentos internos — isso muda a natureza da supervisão regulatória.

Investidores estão fazendo perguntas. Quando a Microsoft, seu maior investidor, descreve repetidas quebras de confiança, outros investidores precisam considerar o risco de governança.

Pesquisadores de segurança ganharam validação. Cada pessoa que saiu da OpenAI citando preocupações de segurança — Sutskever, Amodei, Jan Leike, e tantos outros — agora tem documentação pública respaldando suas preocupações.

A grande questão não é se Sam Altman é uma boa ou má pessoa. A questão é se a estrutura atual de governança da IA mais poderosa do mundo depende da boa-fé de um indivíduo que, segundo a investigação mais completa já feita sobre ele, não merece essa confiança.

E se a resposta for não — e as 200 páginas de memos secretos sugerem fortemente que é — então precisamos de uma estrutura diferente. Antes que seja tarde demais.


Fonte de inspiração: Sam Altman May Control Our Future — Can He Be Trusted? (The New Yorker)


👉 Leia também: Sora Fechou: $15 Milhões por Dia e a OpenAI Não Aguentou

Comment (1)

  • abril 7, 2026

    Sora Fechou: $15 Milhões Por Dia E A OpenAI Não Aguentou - CodeInsider

    […] ‘Sociopata’: O Dossiê da New […]

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Posts