Shopping cart

Subtotal $0.00

View cartCheckout

Building better devs

TnewsTnews
  • Home
  • Notícias
  • Nvidia no Mac: Como George Hotz Quebrou 6 Anos de Bloqueio da Apple
Notícias

Nvidia no Mac: Como George Hotz Quebrou 6 Anos de Bloqueio da Apple

Email : 67

A Apple e a Nvidia não se falam há anos. Agora, um hacker mudou isso.

Se você usa Mac e trabalha com IA, já deve ter sentido aquela frustração: seu MacBook Pro tem um chip absurdo, mas na hora de rodar um modelo pesado, a GPU integrada simplesmente não dá conta. Enquanto isso, uma RTX 4090 junta poeira na gaveta porque — surpresa — macOS não suporta Nvidia desde 2015.

Essa novela de mais de uma década entre Apple e Nvidia parecia não ter fim. Até que George Hotz, o cara que hackeou o iPhone aos 17 anos e depois fundou a Tiny Corp, decidiu resolver o problema na marra. E a Apple? Aprovou.

Em 31 de março de 2026, a Tiny Corp anunciou que a Apple oficialmente aprovou o driver TinyGPU — uma extensão DriverKit que permite usar GPUs externas da Nvidia e AMD em Macs com Apple Silicon via Thunderbolt/USB4. Sem desativar o SIP. Sem gambiarras. Aprovado pela App Review da Apple.

Eu vi a notícia e quase não acreditei. Vamos entender o que isso significa.

A guerra silenciosa entre Apple e Nvidia

Pra quem é mais novo na área, vale um contexto rápido. Apple e Nvidia já foram parceiras. O primeiro Mac com GPU Nvidia foi o Power Macintosh G4, lá em 2001. Durante anos, MacBooks Pro vinham com chips GeForce e tudo parecia bem.

Aí veio 2008.

O desastre do “Bumpgate”

Em 2008, chips defeituosos da Nvidia causaram falhas em massa em notebooks — não só da Apple, mas também Dell e HP. O problema era tão grave que a Apple teve que estender garantias e lançar updates de emergência. Steve Jobs, que já tinha um pé atrás com a Nvidia desde uma discussão sobre patentes da Pixar, começou a olhar pro outro lado.

Em 2013, a Apple fez a troca oficial: os Mac Pro passaram a usar GPUs AMD exclusivamente. Em 2015, o último MacBook com Nvidia saiu de linha. E quando o macOS Mojave chegou em 2019, a Apple simplesmente parou de assinar drivers Nvidia. Placas que funcionavam perfeitamente viraram peso de papel.

O bloqueio do Apple Silicon

Quando a Apple lançou o M1 em 2020, o suporte a eGPU — que existia para Macs Intel com placas AMD — foi completamente removido. A mensagem era clara: “use nosso chip e pronto”.

Para a maioria dos usuários, tudo bem. O M1, M2, M3 e M4 são incríveis para tarefas do dia a dia, edição de vídeo e até machine learning leve. Mas pra quem precisa rodar LLMs com bilhões de parâmetros, treinar modelos ou fazer inferência pesada, a memória unificada tem um teto. E uma RTX 4090 com 24GB de VRAM dedicada faz muita falta.

George Hotz entra na história

George Hotz não é exatamente um desconhecido. O cara hackeou o primeiro iPhone em 2007, desbloqueou o PS3, fundou a comma.ai (carros autônomos) e depois criou a Tiny Corp com o framework tinygrad — um compilador de redes neurais minimalista que compete com PyTorch e TensorFlow em simplicidade.

A Tiny Corp tinha um problema prático: seus clientes queriam rodar modelos em hardware diverso, incluindo Macs. Mas sem suporte a GPU externa no macOS, isso era impossível para cargas pesadas.

Maio de 2025: a primeira prova de conceito

Em maio de 2025, a equipe da Tiny Corp demonstrou o que chamaram de “o primeiro GPU AMD rodando via USB3 em um Mac com Apple Silicon”. Era tosco, lento, cheio de hacks — mas funcionava. Um Radeon RX 7900 XTX conectado a um MacBook via adaptador USB, executando operações de tensor.

A comunidade de hardware pirou.

Outubro de 2025: Nvidia entra no jogo

Poucos meses depois, a equipe deu o passo que ninguém esperava: conseguiram uma RTX rodando em um MacBook Pro M3 Max via USB4. Nvidia. Em um Mac. Sem drivers oficiais da Nvidia, sem suporte da Apple. Drivers completamente escritos do zero em userspace.

O truque? Eles usaram o DriverKit da Apple — um framework que permite desenvolver drivers que rodam em espaço de usuário, sem precisar de kernel extensions. É mais seguro, mais estável e, crucialmente, pode ser aprovado pela Apple sem que a Apple precise “apoiar” Nvidia oficialmente.

Como o TinyGPU funciona na prática

Chega de história, vamos ao que interessa. O TinyGPU é um app macOS que instala uma extensão DriverKit aprovada pela Apple. Aqui está o que você precisa:

Requisitos

Componente Requisito mínimo
macOS 12.1 (Monterey) ou superior
Conexão USB4 ou Thunderbolt 3/4
GPU AMD RDNA3+ (RX 7900 XTX, RX 9000)
GPU Nvidia Ampere+ (RTX 3000, 4000, 5000)
Enclosure Qualquer dock eGPU com Thunderbolt

Instalação em 5 passos


# 1. Conecte o eGPU dock com sua placa

# 2. Baixe e instale o TinyGPU
curl -fsSL https://raw.githubusercontent.com/tinygrad/tinygrad/master/extra/setup_tinygpu_osx.sh | sh

# 3. Aceite o prompt do sistema e ative em:
#    Configurações > Privacidade > Extensões de Driver

# 4. Configure o compilador
# Para AMD: execute o script de setup do HIP
# Para Nvidia: instale Docker Desktop + script NVCC
#   Adicione ~/.local/bin ao PATH

# 5. Teste!
DEV=NV python3 tinygrad/apps/llm.py

Sim, é isso. Sem desativar o SIP. Sem boot em modo recovery. Sem assinar drivers manualmente.

Performance real

Nos benchmarks divulgados, um Mac mini M4 com uma Radeon RX 7900 XTX externa alcançou 18.5 tokens por segundo rodando o Qwen 3.5 27B. Não é velocidade de PCIe nativo — o USB4 tem ~40Gbps de bandwidth teórico contra ~128Gbps do PCIe 4.0 x16 — mas é absurdamente melhor do que rodar na GPU integrada ou depender de APIs na nuvem.

Pra colocar em perspectiva:

Setup Modelo Tokens/s Custo mensal
Mac mini M4 + RX 7900 XTX Qwen 3.5 27B 18.5 t/s R$ 0 (local)
API OpenAI GPT-4o Equivalente ~30 t/s R$ 500-2000
Mac mini M4 (GPU integrada) Qwen 3.5 27B ~3 t/s R$ 0 (local)
PC com RTX 4090 (PCIe) Qwen 3.5 27B ~45 t/s R$ 0 (local)

O eGPU não bate o PCIe, mas é 6x mais rápido que rodar na GPU integrada. E você mantém todo o ecossistema macOS.

O que isso NÃO faz

Preciso ser honesto aqui: o TinyGPU tem limitações importantes.

Nada de jogos. Os drivers foram escritos exclusivamente para compute. Não existe output de vídeo. Sua RTX 4090 não vai rodar Cyberpunk no macOS. Se esse é seu objetivo, continue no Windows ou Linux.

Nada de CUDA nativo. O compilador Nvidia roda via Docker, o que adiciona uma camada de overhead. O tinygrad abstrai isso, mas se seu workflow depende de PyTorch com CUDA nativo, não vai funcionar out-of-the-box. Você precisa usar o tinygrad como framework ou adaptar seu código.

Bandwidth limitado. USB4/Thunderbolt dá ~40Gbps. PCIe 4.0 x16 dá ~128Gbps. Para modelos que cabem inteiros na VRAM e não precisam de muita comunicação CPU-GPU, a diferença é pequena. Para treinamento com batches grandes que fazem transfers constantes, o gargalo vai aparecer.

Sem suporte oficial da Nvidia ou Apple. A Apple aprovou o driver, mas não “apoia” Nvidia em macOS. Se algo quebrar numa atualização do macOS, a Tiny Corp que se vire. É um risco real.

Por que a Apple aprovou?

Essa é a pergunta de um milhão de dólares. A Apple, que bloqueou Nvidia ativamente por quase uma década, de repente aprova um driver que habilita GPUs Nvidia em seus Macs?

Minha teoria: IA.

A Apple está perdendo desenvolvedores de IA. Quem trabalha sério com machine learning usa Linux com Nvidia, ponto final. O ecossistema CUDA é imbatível, e a GPU integrada do Mac, por melhor que seja, não escala para workloads enterprise.

Ao aprovar o TinyGPU via DriverKit, a Apple consegue:

  1. Manter desenvolvedores de IA no macOS sem precisar negociar diretamente com a Nvidia
  2. Não comprometer sua narrativa de chip integrado superior — o TinyGPU é “terceiro”, não um produto Apple
  3. Testar a demanda antes de investir em suporte oficial
  4. Evitar processo antitruste — bloquear arbitrariamente hardware de terceiros está cada vez mais difícil de justificar

A Tiny Corp, por sua vez, funciona como um “escudo” perfeito. Se der errado, a Apple pode dizer que nunca apoiou oficialmente. Se der certo, pode eventualmente integrar o suporte.

O impacto para desenvolvedores brasileiros

Pra quem trabalha com IA no Brasil, isso muda o jogo de um jeito prático.

Um Mac mini M4 custa a partir de R$ 5.800. Uma dock eGPU Thunderbolt sai por R$ 1.500-3.000. Uma RTX 4070 Super, uns R$ 4.000. Total: cerca de R$ 12.000 por um setup que roda modelos de 27B+ parâmetros localmente, com a produtividade do macOS.

Compare com montar um PC dedicado Linux: R$ 15.000-20.000 para algo equivalente, sem contar que você perde o ecossistema Apple e precisa manter duas máquinas.

E comparado com cloud? Uma instância com GPU A100 na AWS custa USD 3-4/hora. Se você usa 8 horas por dia, são USD 600-960/mês — R$ 3.500-5.500. Em 3 meses, o setup local se paga.


# Exemplo real: rodando Qwen 3.5 27B no Mac com eGPU Nvidia
# Usando tinygrad como backend

from tinygrad import Tensor, Device
from tinygrad.nn.state import load_state_dict
import os

# Força uso da GPU Nvidia externa
os.environ["DEV"] = "NV"

# Verifica o device
print(f"Device ativo: {Device.DEFAULT}")
# Output: Device ativo: NV

# Inferência via tinygrad
from tinygrad.apps.llm import LLM
model = LLM("qwen-3.5-27b")
response = model.generate("Explique Docker multi-stage builds", max_tokens=500)
print(response)

DriverKit: a arma secreta que tornou tudo possível

Vale uma explicação mais técnica aqui, porque o DriverKit é o verdadeiro herói dessa história.

Antes do Apple Silicon, drivers de GPU no macOS usavam kernel extensions (kexts) — código que rodava no kernel do sistema operacional. Se um driver bugasse, levava o sistema inteiro junto. Era arriscado, difícil de manter, e a Apple odiava.

Com o macOS Catalina (2019), a Apple introduziu o DriverKit: um framework que permite criar drivers que rodam em userspace, isolados do kernel. Pense nele como um container para drivers. Se o driver crasha, o sistema continua rodando. Se tem uma vulnerabilidade, o dano é contido.

A jogada genial da Tiny Corp foi perceber que o DriverKit não proíbe explicitamente drivers de GPU de terceiros. A Apple criou o framework pensando em periféricos USB, placas de rede, dispositivos de áudio. Mas nada na documentação diz que você não pode usar para GPU compute.


┌─────────────────────────────────────┐
│           macOS (userspace)          │
│                                      │
│  ┌──────────┐    ┌───────────────┐  │
│  │ tinygrad  │───▶│   TinyGPU     │  │
│  │ (Python)  │    │  (DriverKit)  │  │
│  └──────────┘    └───────┬───────┘  │
│                          │           │
│              ┌───────────▼────────┐  │
│              │  USB4/Thunderbolt  │  │
│              │    (40 Gbps)       │  │
│              └───────────┬────────┘  │
└──────────────────────────┼───────────┘
                           │
                ┌──────────▼──────────┐
                │   eGPU Enclosure    │
                │  ┌───────────────┐  │
                │  │ RTX 4090 24GB │  │
                │  └───────────────┘  │
                └─────────────────────┘

O TinyGPU basicamente implementa um mini-driver de GPU que sabe enviar comandos de compute (shaders, operações de tensor) via o barramento USB4/Thunderbolt até a placa externa. Não implementa nenhuma funcionalidade de display — por isso não serve pra jogos.

É elegante porque contorna completamente a necessidade de drivers oficiais da Nvidia para macOS. A Nvidia não precisa fazer nada. A Apple não precisa aprovar nada da Nvidia. A Tiny Corp é o intermediário que faz as duas pontas conversarem.

O que vem pela frente

A aprovação do TinyGPU é um marco, mas é só o começo. Algumas coisas pra ficar de olho:

Suporte a PyTorch. A Tiny Corp já sinalizou que quer criar um backend tinygrad compatível com a API do PyTorch. Se isso acontecer, migrar workflows existentes de CUDA para Mac com eGPU vai ser trivial.

Mais GPUs. Atualmente, o suporte é Ampere+ para Nvidia e RDNA3+ para AMD. GPUs mais antigas podem ganhar suporte com o tempo, embora a equipe priorize hardware recente.

Reação da Apple. A grande incógnita. Uma atualização do macOS pode quebrar tudo. Mas o fato de a Apple ter passado o driver pela App Review sugere que, no mínimo, eles não vão sabotar ativamente. Por enquanto.

Competição. Se o TinyGPU provar demanda, não seria surpresa ver a própria Apple desenvolver suporte nativo a eGPU no Apple Silicon — talvez limitado a “AI compute” primeiro, depois expandindo.

George Hotz mostrou, mais uma vez, que às vezes a solução pra um problema que parece político é simplesmente técnica. Quando a Apple e a Nvidia não conseguiam (ou não queriam) se entender, um time pequeno com drivers userspace resolveu em um ano o que duas gigantes não fizeram em uma década.

O TinyGPU é open source, gratuito, e já funciona. Se você tem um Mac e uma GPU Nvidia encostada, a desculpa pra não rodar IA local acabou.

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Posts