Shopping cart

Subtotal $0.00

View cartCheckout

Building better devs

TnewsTnews
  • Home
  • Notícias
  • $38 Bilhões em 90 Dias: Como os Chips HBM Fizeram a Samsung Explodir
Notícias

$38 Bilhões em 90 Dias: Como os Chips HBM Fizeram a Samsung Explodir

Chips de memória HBM Samsung para inteligência artificial
Email : 38

Um Trimestre que Vale Mais que o Ano Inteiro

Quando a Samsung divulgou seus resultados preliminares do primeiro trimestre de 2026, o mercado financeiro teve que olhar duas vezes. KRW 57,2 trilhões de lucro operacional — algo em torno de US$ 38 bilhões — em apenas 90 dias. Um salto de 755% em relação ao mesmo período do ano anterior. Pra ter noção do tamanho disso: esse único trimestre superou o lucro da empresa no ano inteiro anterior.

E o responsável por essa montanha de dinheiro não foi o Galaxy S27 Ultra, nem as TVs QLED, nem as geladeiras inteligentes. Foi um componente que a maioria das pessoas nunca ouviu falar: chips de memória HBM.

O Que São Chips HBM (e Por Que Valem Bilhões)

HBM significa High Bandwidth Memory — memória de alta largura de banda. Parece jargão técnico sem graça, mas é o componente que separa uma GPU de IA capaz de treinar modelos como o GPT-5 de um peso de papel caro.

O problema que o HBM resolve é elegante na simplicidade: nos últimos 20 anos, o poder computacional das GPUs aumentou 60.000 vezes. A velocidade da memória DRAM? Só 100 vezes. Essa diferença cria o que os engenheiros chamam de “memory wall” — o processador fica parado esperando dados que a memória não consegue entregar rápido o suficiente.

A solução do HBM é empilhar fisicamente várias camadas de DRAM uma em cima da outra, conectadas por milhares de micro-canais verticais chamados TSVs (Through-Silicon Vias). Imagine um prédio de apartamentos onde cada andar é um chip de memória e o elevador são milhares de conexões simultâneas movendo dados para cima e para baixo.

Tecnologia Largura de Banda Relação com HBM4
DDR4 ~25,6 GB/s 1x
DDR5 ~51,2 GB/s 2x
HBM3E ~1,2 TB/s 47x
HBM4 ~2 TB/s 78x
HBM4E ~4 TB/s 156x

Leu certo. Um único stack de HBM4E entrega 156 vezes mais largura de banda que um módulo DDR4 convencional. É por isso que toda GPU de IA que se preze — da Nvidia H100 à futura Vera Rubin — depende de HBM.

95% do Lucro Veio de Um Único Setor

Esse é o número mais absurdo do relatório da Samsung: aproximadamente 95% do lucro operacional veio da divisão de semicondutores. Estamos falando de cerca de KRW 54 trilhões (US$ 36 bilhões) saindo de um único braço da empresa.

A divisão de smartphones? Contribuiu míseros KRW 4 trilhões — menos de 5% do total. Aquela briga eterna Samsung vs Apple por market share de celulares? Financeiramente, virou nota de rodapé. O jogo agora é outro.

Três fatores convergiram para criar essa tempestade perfeita:

1. Preços de memória dobraram no Q1

A demanda por chips de memória para data centers de IA explodiu de tal forma que os preços de DRAM e NAND simplesmente dobraram em relação ao trimestre anterior. E analistas projetam mais 50% de aumento no Q2. Quando você é um dos três únicos fabricantes do planeta capazes de produzir HBM avançado, isso é praticamente uma licença para imprimir dinheiro.

2. Data centers não param de crescer

Cada novo modelo de IA — seja da OpenAI, Google, Anthropic ou Meta — precisa de mais memória HBM. O investimento global em infraestrutura de IA já passa de US$ 7 trilhões em planos anunciados. Cada GPU Nvidia H200 ou B200 usa vários stacks de HBM. Cada data center usa milhares dessas GPUs.

3. Samsung entrou no jogo do HBM4

Depois de ficar atrás da SK Hynix por dois anos, a Samsung finalmente conseguiu qualificar seus chips HBM4 e começou a produção em massa para a plataforma Nvidia Vera Rubin. Na GTC 2026, a empresa mostrou o HBM4E com 4 TB/s de bandwidth e já está em “close discussion” com a Nvidia para fornecimento em escala.

A Guerra dos Três: Samsung, SK Hynix e Micron

No mundo, apenas três empresas fabricam chips HBM avançados: Samsung, SK Hynix e Micron. E a dinâmica entre elas é uma das rivalidades mais intensas da indústria de tecnologia.

Até pouco tempo, a SK Hynix dominava com folga. Números de meados de 2025 mostram a empresa sul-coreana com 62% do mercado de HBM, enquanto a Micron surpreendeu ao ultrapassar a Samsung, que ficou com meros 17%.

Isso doeu. E doeu no lugar certo — no orgulho de uma empresa que historicamente liderou o mercado de memória.

A resposta da Samsung veio em três frentes:

Tecnologia: HBM4 e HBM4E

O HBM4 da Samsung opera a 11,7 Gbps — bem acima do padrão da indústria de 8 Gbps — e pode ser impulsionado até 13 Gbps. Já o HBM4E, revelado na GTC 2026, promete 16 Gbps por pino e 4 TB/s de bandwidth total.

A empresa também apresentou sua tecnologia de Hybrid Copper Bonding (HCB), que permite empilhar 16 ou mais camadas de DRAM enquanto reduz a resistência térmica em mais de 20%. Traduzindo: mais desempenho, menos calor.

Produção: Triplicar a Capacidade

A Samsung planeja triplicar sua capacidade de produção de HBM e expandir a capacidade geral de fabricação em 50% ao longo de 2026. O investimento total previsto? Mais de KRW 110 trilhões (US$ 73 bilhões) entre fábricas e P&D — um aumento de 22% em relação ao ano anterior.

Foundry: A Carta na Manga

Enquanto SK Hynix e Micron só fazem memória, a Samsung também tem uma divisão de foundry (fabricação de chips sob encomenda). Com a TSMC sobrecarregada, clientes estão explorando alternativas — e o processo de 2nm da Samsung já atrai interesse de empresas como a Tesla.

Mas a SK Hynix não está parada. A empresa detém cerca de dois terços da alocação de HBM4 da Nvidia para a plataforma Vera Rubin em 2026, segundo estimativas do UBS, e planeja aumentar seu investimento em infraestrutura em mais de quatro vezes.

Como o HBM Funciona na Prática (Sem Enrolação)

Vamos visualizar o que acontece dentro de uma GPU de IA moderna:


┌──────────────────────────────────────────────┐
│              Silicon Interposer               │
│  ┌─────────┐  ┌─────┐  ┌─────┐  ┌─────────┐ │
│  │  HBM4   │  │     │  │     │  │  HBM4   │ │
│  │ Stack 1  │  │     │  │     │  │ Stack 4  │ │
│  │ (16 dies)│  │ GPU │  │ GPU │  │ (16 dies)│ │
│  │  64GB    │  │ Die │  │ Die │  │  64GB    │ │
│  └────┬────┘  │     │  │     │  └────┬────┘ │
│       │ TSVs  │     │  │     │       │ TSVs │
│  ┌────┴────┐  │     │  │     │  ┌────┴────┐ │
│  │  HBM4   │  │     │  │     │  │  HBM4   │ │
│  │ Stack 2  │  │     │  │     │  │ Stack 3  │ │
│  │ (16 dies)│  └─────┘  └─────┘  │ (16 dies)│ │
│  │  64GB    │                     │  64GB    │ │
│  └─────────┘                     └─────────┘ │
└──────────────────────────────────────────────┘
          Total: 256 GB @ 8+ TB/s

Tudo fica no mesmo “pacote” — GPU e memória lado a lado num interposer de silício, comunicando-se por caminhos curtíssimos. É como ter a biblioteca dentro do escritório em vez de ter que atravessar a cidade toda vez que precisa de um livro.

Cada stack de HBM4 pode ter até 16 camadas de DRAM empilhadas, com 64 GB por stack. Uma GPU moderna pode ter 4, 6 ou até 8 stacks. Faça a conta: são centenas de gigabytes de memória operando a terabytes por segundo.

Por Que Isso Importa Pra Você (Sim, Você)

“Legal, mas eu sou dev. Não fabrico chips.” Justo. Mas pensa comigo:

Se você usa qualquer serviço de IA — ChatGPT, Claude, Gemini, Copilot — você depende de HBM. O custo desses chips afeta diretamente o preço da sua assinatura. Quando os preços de HBM dobram, a conta de infraestrutura da OpenAI e da Anthropic também sobe. E adivinha quem paga no final?

Se você trabalha com ML/AI, a disponibilidade de HBM define que tipo de modelo você consegue treinar e em quanto tempo. A escassez de HBM em 2025 atrasou projetos de empresas de todos os tamanhos.

Se você é investidor em tech, Samsung é agora essencialmente uma empresa de semicondutores que também vende celulares. Esse reposicionamento muda completamente a tese de investimento.

Se você se preocupa com geopolítica, o fato de que toda a produção global de HBM avançado está concentrada em dois países (Coreia do Sul e EUA) cria vulnerabilidades estratégicas que governos estão começando a levar a sério.

O Efeito Cascata nos Preços de IA

Aqui vai uma conta de padaria que poucos fazem. Uma GPU Nvidia H200, que é a workhouse dos data centers de IA hoje, custa em torno de US$ 30.000-40.000. O HBM dentro dela representa algo entre 30% e 40% do custo total do chip. Quando o preço do HBM dobra — como aconteceu no Q1 2026 — o custo de cada GPU sobe proporcionalmente.

Agora escala isso. Um cluster de treinamento de IA médio usa entre 1.000 e 10.000 GPUs. Os clusters da Meta e do Google para treinar modelos frontier? Centenas de milhares. Estamos falando de bilhões de dólares adicionais em custos de hardware só por causa do aumento no preço da memória.

Esse custo não desaparece. Ele é repassado de três formas:

  • Assinaturas mais caras: o ChatGPT Plus já custa US$ 20/mês, mas a OpenAI opera no prejuízo. Se o custo do hardware continuar subindo, esses preços vão subir também.
  • Rate limits mais agressivos: empresas como Anthropic e Google controlam custos limitando quantas requisições você pode fazer. Memória mais cara = menos generosidade.
  • Modelos menores sendo priorizados: não é coincidência que todo mundo está otimizando modelos para rodar com menos memória (quantização, destilação, modelos de 1-bit). O preço do HBM é um dos motores dessa tendência.

Quem trabalha com IA local — rodando Llama, Mistral ou Gemma no próprio hardware — sente isso na hora de comprar uma GPU consumer com mais VRAM. As placas com 24 GB de VRAM (como a RTX 4090) já têm preço inflacionado em parte pela pressão de demanda por memória no mercado como um todo.

O Elefante na Sala: E Se a Bolha Estourar?

Eu seria irresponsável se não mencionasse isso. Toda vez que uma indústria tem um salto de 755% em lucros impulsionado por uma única tecnologia, a pergunta inevitável é: quanto disso é sustentável?

Os otimistas apontam que a demanda por IA não mostra sinais de desaceleração. O mercado de HBM deve crescer de US$ 26 bilhões em 2025 para mais de US$ 100 bilhões até 2028. Nvidia, AMD, Intel e Google estão todos desenvolvendo chips que precisam de mais HBM, não menos.

Os céticos lembram que:

  • Data centers têm ciclos de capex. Quando as grandes empresas terminarem a fase atual de construção, a demanda pode cair.
  • O HBM4 tem rendimento (yield) mais baixo que tecnologias anteriores, o que pressiona margens no longo prazo.
  • A China está investindo pesado em memória doméstica (CXMT e ChangXin), e embora ainda esteja gerações atrás, eventualmente pode adicionar capacidade ao mercado.

A verdade provavelmente está no meio. Os lucros recordes de Q1 2026 não vão se repetir todo trimestre — mas a tendência estrutural de crescimento da demanda por memória de alta performance parece real.

O Próximo Passo: HBM4E e a Plataforma Vera Rubin

O roadmap dos próximos 12-18 meses é claro:

  1. Q2-Q3 2026: HBM4 entra em produção em massa para a Nvidia Vera Rubin. Samsung e SK Hynix competem por alocação.
  2. Q4 2026: Stacks de 16 camadas (16-Hi) começam a ser produzidos, dobrando a capacidade por stack.
  3. 2027: HBM4E com 4 TB/s de bandwidth entra em volume. A Samsung aposta tudo na tecnologia de Hybrid Copper Bonding para viabilizar 16+ camadas.
  4. 2027-2028: Possível introdução do HBM5, embora os detalhes ainda sejam escassos.

A Samsung tem uma janela de oportunidade. Se conseguir entregar HBM4 com qualidade e volume para a Nvidia antes da concorrência, pode recuperar market share significativo. O co-CEO da Samsung já declarou que “clientes afirmaram que a Samsung está de volta” — resta provar que não é só marketing.

Três Números Que Resumem Tudo

Métrica Valor
Lucro operacional Q1 2026 US$ 38 bilhões
Crescimento ano a ano 755%
% vindo de semicondutores 95%

A Samsung não é mais uma empresa de eletrônicos de consumo que também faz chips. É uma empresa de chips que também faz eletrônicos de consumo. E o mercado está começando a precificar isso.

Se você desenvolve para IA, treina modelos, ou simplesmente usa um chatbot para escrever código às 3 da manhã — em algum ponto da cadeia, seus dados estão passando por um chip HBM da Samsung, SK Hynix ou Micron. É a infraestrutura invisível que faz a revolução da IA funcionar. E neste trimestre, ela fez a Samsung ganhar mais dinheiro do que a maioria dos países.


Fonte de inspiração: Samsung’s profit surged 8x in Q1 2026, driven by AI data center boom — SamMobile

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Posts