A guerra da IA saiu do chip: quem manda agora são cabos, luz e megawatts
Quer um cluster de IA maior? Prepare a subestação, não a planilha de GPUs. O novo gargalo não é computação — é energia, fibra e água fria. Operadores estão assinando contratos de megawatts como quem renova streaming, enquanto datacenters trocam ar por líquido e as redes saltam de 400G para 800G e já ensaiam 1.6T. O hardware brilha, mas a vitória mora no que ninguém quer debugar às 3 da manhã: cabeamento, óptica, pressão da água e controle de congestionamento.
Top 5 Trend Topics
1) Energia virou moeda forte
Filas para conexão à rede elétrica explodiram. Projetos só andam com PPAs de longo prazo, geração no local (células a combustível, microturbinas) e baterias para shaving de pico. Quem consegue megawatts firmes fecha negócio antes mesmo de escolher o acelerador. O leilão real é por capacidade elétrica e contratos de curtailability.
2) Resfriamento líquido deixou de ser exótico
Direct-to-chip com cold plates e manifolds de engate rápido virou padrão em racks de IA densa. Rear-door heat exchangers dominam retrofits e imersão fica para workloads extremos ou sites dedicados. Sistemas tipo NVL72 de GPU de última geração já nascem líquidos. PUE desce, mas a engenharia sobe: duas malhas de água, vazão, glicol, sensores e manutenção especializada.
3) A malha óptica é o novo campo de batalha
800G pluggables viraram baseline em training pods; 1.6T bate à porta com 200G por lane. LPO (linear-drive) corta watts do DSP onde dá; para DCI, ZR/ZR+ coerente reina. Co-packaged optics começa a sair do laboratório em switches topo de rack de altíssima densidade. E o estoque de fibras MPO-16/MTP-24, se você não planejou, vira dor.
4) Ethernet vs InfiniBand: a briga que realmente importa
InfiniBand ainda vence em latência previsível e maturidade de collective ops, mas hyperscalers puxam Ethernet com RoCEv2, DCQCN e schedulers cientes de topologia. Chips de rede de 51.2T e 100T elevam o teto, enquanto arquiteturas NVLink de domínio de rack reduzem tráfego leste-oeste. A decisão não é só técnica: é TCO, talento disponível e cadeia de suprimentos.
5) Edge de verdade: NPUs e microdatacenters soberanos
NPUs em laptops e appliances on-prem com modelos de 1B–10B rodam inferência e pré-processamento, cortando latência e custo de egress. Clientes sensíveis a dados montam microdatacenters com 8–32 GPUs ou aceleradores alternativos e enlaces ópticos curtos. Soberania de dados deixa de ser slide e vira contrato.
Corpo Principal
Os melhores clusters de IA do momento se parecem menos com supercomputadores clássicos e mais com fábricas. Racks de GPU transformam calor em megawatts reutilizáveis, fibras em largura de banda previsível e disciplina operacional em disponibilidade. A boa notícia: a tecnologia para esse salto já está na rua. A má: não é plug-and-play.
Começando pelo resfriamento. Com TDPs por acelerador passando dos 1.2 kW e chegando além de 1.5 kW, ar não escala sem barulho, hot spots e contas de energia indecentes. Direct-to-chip leva água morna ao die via cold plates, removendo 70–90% do calor; o restante vai para ar com RDHx ou coils tradicionais. Isso permite operar laços de água a temperaturas mais altas, reduzir chillers e até recuperar calor para aquecimento predial. Em clusters de rack fechado, o desenho já sai de fábrica com manifolds redundantes, válvulas sem gotejamento e telemetria por sensor — porque ninguém quer caça ao vazamento de madrugada.
Na rede, a história ficou elétrica e óptica ao mesmo tempo. 800G tornou-se mainstream em pods de treino, normalmente agregando oito lanes de 100G PAM4. 1.6T acelera a transição para 200G por lane e força revisões de cabeamento, distância de traço e orçamentos de potência. Pluggables baseados em DSP ainda são cavalo de batalha, mas LPO corta consumo onde a distância é curta e o SI é controlável. Co-packaged optics, ao embutir transceptores no próprio switch, encurta as rotas SerDes e promete reduzir watts por bit — com o preço de mudar o modelo de manutenção do datacenter.
Topologias importam. Fat-trees e variâncias de Clos ainda dominam, mas fabrics dragonfly e hierarquias com domínios NVLink de rack diminuem a pressão leste-oeste da camada de rede. A pergunta real: qual é o custo por hora de job entregue? A resposta mistura roteadores de 51.2T/102.4T, filas virtuais (VOQ), ECN calibrado e uma engenharia de congestion control que não explode com PFC. RoCEv2 com DCQCN funciona, desde que você tenha alguém que saiba o que faz.
Três pontos técnicos que viraram linha de base para quem está construindo agora:
- Óptica e sinais: PAM4 a 100–200G por lane exige orçamentos térmicos e SI agressivos. Conectores MPO bem terminados, fibras de baixa perda e inspeção sob microscópio não são luxo — são o uptime do seu treinamento.
- Barramento e memória: PCIe 5 já está no limite em muitas topologias; PCIe 6 com PAM4 e equalização chega com mais cuidado. CXL 3.x habilita pooling de memória e compõe melhor com GPUs e CPUs, evitando oversubscription de HBM em inferência pesada.
- Energia e rack: ORV3 e barramentos de 48V padronizam distribuição de alta corrente em rack. UPS por fila e BESS no site permitem shaving de pico e negociação de demanda com a utility, reduzindo custo por kWh efetivo.
Exemplos do mercado mostram a curva. Sistemas de rack-scale com interconexão NVLink e resfriamento líquido entregam domínios de baixa latência para treino denso, enquanto nuvens públicas montam pods baseados em Ethernet 800G e storage NVMe-oF/TCP com DPUs descarregando I/O. A AWS empurra aceleradores próprios de segunda geração em clusters pensados para 100k+ chips; o Google distribui superpods de TPU com links ópticos de alta capacidade; a Microsoft atualiza o backbone para suportar inferência em tempo real nos serviços mais populares. Fora dos hypers, colos como Equinix e Digital Realty já oferecem corredores preparados para líquido e fibras troncais upgradadas.
E a economia? Optics virou linha de despesa tão relevante quanto servidor. O número de fibras por corredor duplicou. O payback de líquido aparece quando a densidade passa de ~30–40 kW por rack ou quando a conta de ar supera a paciência do CFO. Energia é CAPEX e OPEX: PPAs de longo prazo, créditos de capacidade e até heat reuse viraram páginas obrigatórias no RFP. Quem fecha um terreno perto de geração firme (hidro, nuclear, eólica com storage) garante vantagem estratégica que nenhum firmware compensa.
Riscos não faltam. Cadeia de suprimentos de lasers e drivers é sensível. PFC mal configurado vira tempestade de tráfego. Vazamentos acontecem — e precisam ser contidos por design, não por oração. Reguladores começam a pedir relatórios de água e carbono em tempo real. E o lock-in de interconexão proprietária pode ser um abraço apertado demais se o roadmap de software divergir da sua necessidade.
Do outro lado, oportunidades raramente vistas. Recuperação de calor monetiza megawatts que antes viravam ruído. Fabricação modular acelera lead time de site de anos para meses. AI boxes on-prem reduzem latência e custo de egress enquanto mantêm dados em casa. E equipes que falam ao mesmo tempo BGP, CXL, termodinâmica e segurança operacional viram superpoder corporativo.
No endpoint, NPUs de 45–60+ TOPS em laptops e gateways industriais puxam uma arquitetura híbrida: pré-processamento local, filtragem de privacidade e modelos compactos no device; treinamento e fine-tuning ficam no core. Isso drena tráfego inútil da rede, reduz custo por chamada e, de quebra, mantém compliance mais simples.
Conclusão
O placar muda quando a óptica encosta no switch e a água encosta no die. Co-packaged optics deve deixar de ser piloto e ganhar volume em switches de agregação. Ethernet, turbinada por telemetria e controle de congestionamento mais esperto, tende a levar o grosso do volume nos datacenters, com domínios proprietários de baixa latência resolvendo ilhas críticas de treino. PPA vira KPI de IA. E a pergunta do board sai de quantas GPUs você tem para quantos megawatts por modelo você entrega com SLA.
Previsão ousada: o cargo mais disputado vai ser o de orquestrador de fabric — alguém que entenda scheduler de job, malha óptica, termodinâmica e capex de energia. Se você está montando time, comece por aí. Se está montando cluster, ligue primeiro para a utility e para o fornecedor de óptica. A GPU espera. A rede, a água e o megawatt, nem sempre.










