Shopping cart

Subtotal $0.00

View cartCheckout

Building better devs

TnewsTnews
  • Home
  • IA
  • Seu Código no Lovable Está Exposto Há 48 Dias — e a Vercel Perdeu Dados por Causa de uma IA
IA

Seu Código no Lovable Está Exposto Há 48 Dias — e a Vercel Perdeu Dados por Causa de uma IA

Email : 118

Em menos de uma semana, duas das plataformas mais populares entre desenvolvedores sofreram incidentes de segurança graves. A Vercel confirmou no dia 19 de abril que teve dados de clientes roubados depois que um funcionário teve sua conta sequestrada via uma ferramenta de IA comprometida. Quase simultaneamente, pesquisadores revelaram que a Lovable — a queridinha do vibe coding — deixou milhares de projetos expostos por 48 dias, com código-fonte, credenciais de banco de dados e conversas com IA acessíveis para qualquer pessoa com uma conta gratuita.

Não é coincidência. Ambos os incidentes revelam um padrão que está se repetindo com frequência preocupante: quanto mais ferramentas de IA entram no workflow de desenvolvimento, mais superfícies de ataque surgem — e nem desenvolvedores nem empresas estão preparados para lidar com isso.

O Caso Vercel: Uma IA Comprometida Abriu a Porta

No dia 19 de abril de 2026, a Vercel publicou um boletim de segurança confirmando um incidente que começou com o comprometimento da Context.ai, uma ferramenta de IA usada por um funcionário da empresa.

O fluxo do ataque:

  1. Atacantes comprometeram a Context.ai (empresa terceira)
  2. Usaram esse acesso para sequestrar a conta Google Workspace do funcionário da Vercel via OAuth
  3. Com a conta corporativa em mãos, acessaram ambientes internos da Vercel
  4. Exfiltraram variáveis de ambiente não-sensíveis de um subconjunto de clientes

O grupo ShinyHunters — conhecido por ataques à Ticketmaster, AT&T e outros — reivindicou a autoria e colocou os dados à venda no BreachForums por US$ 2 milhões.

O Que Vazou (e o Que Não Vazou)

A Vercel diferencia variáveis de ambiente em dois tipos:

TipoArmazenamentoStatus no Incidente
SensitiveCriptografado, não pode ser lido após salvarSem evidência de acesso ✓
Non-sensitive (padrão)Texto planoPotencialmente exposto ✗

O problema: muitos desenvolvedores salvam API keys, tokens e credenciais de banco de dados como variáveis “non-sensitive” sem perceber a diferença. Se você tem deploy na Vercel e nunca marcou suas variáveis como “sensitive”, elas estavam em texto plano — e potencialmente acessíveis.

Em colaboração com GitHub, Microsoft, npm e Socket, a Vercel confirmou que nenhum pacote npm publicado pela empresa foi comprometido. Mandiant foi contratada para conduzir a investigação forense.

O Que Fazer Se Você Usa Vercel

  • Ative MFA imediatamente se ainda não ativou
  • Rotacione todas as variáveis de ambiente não marcadas como “sensitive”
  • Marque variáveis como “sensitive” por padrão daqui em diante
  • Revise logs de atividade e deployments recentes
  • Configure o Deployment Protection no mínimo para “Standard”

O Caso Lovable: 5 Chamadas de API e Tudo Exposto

A Lovable é uma das plataformas mais populares de vibe coding — você descreve o que quer em linguagem natural e a IA gera o aplicativo completo. Avaliada em US$ 6,6 bilhões, com clientes como Uber, Zendesk e Deutsche Telekom.

No dia 3 de março de 2026, o pesquisador @weezerOSINT reportou via HackerOne uma falha BOLA (Broken Object Level Authorization) na API da Lovable. O problema é tão simples que dói:

# Os endpoints /projects/{id}/* verificavam autenticação Firebase
# Mas NÃO verificavam se o projeto pertencia ao usuário autenticado

# Qualquer conta free podia acessar qualquer projeto:
GET /projects/123/source     → código-fonte completo
GET /projects/123/chats      → conversas com a IA
GET /projects/123/config     → credenciais Supabase hardcoded
GET /projects/123/users      → dados de clientes (nome, LinkedIn, Stripe ID)

Cinco chamadas de API. Uma conta gratuita criada em minutos. Acesso a tudo: código-fonte, credenciais de banco de dados, conversas completas com a IA e dados pessoais de clientes.

48 Dias Sem Correção

O que torna esse caso particularmente grave é a timeline:

DataEvento
3 mar 2026Pesquisador reporta via HackerOne
Mar 2026HackerOne fecha o report — interpreta como “comportamento intencional”
Abr 2026Segundo report documentando endpoints adicionais — marcado como duplicata
20 abr 2026Disclosure público após 48 dias sem correção

A Lovable corrigiu a falha para projetos criados após novembro de 2025, mas projetos anteriores continuaram expostos. Dezenas de milhares de projetos potencialmente afetados.

A Resposta Desastrosa

A comunicação da Lovable foi, na melhor das hipóteses, caótica:

  1. Primeiro disse que era “comportamento intencional”
  2. Depois culpou a documentação por ser “unclear”
  3. Em seguida jogou a culpa no HackerOne por não escalar os reports
  4. Finalmente admitiu que um bug de fevereiro 2026 re-habilitou o acesso a chats de projetos públicos

“Infelizmente, os reports foram fechados sem escalação porque nossos parceiros do HackerOne acharam que ver chats de projetos públicos era o comportamento esperado.” — Lovable, comunicado oficial

O The Register resumiu bem: “Lovable goes on ego trip denying vulnerability, then blames others for said vulnerability.”

O Vínculo com Vibe Coding

Esses dois incidentes não aconteceram isolados. Eles são sintomas de um problema estrutural no ecossistema de desenvolvimento assistido por IA — o que o mercado batizou de “vibe coding”.

No caso Vercel: a porta de entrada foi uma ferramenta de IA (Context.ai) com permissões OAuth excessivas na conta de um funcionário. Ninguém questionou por que uma ferramenta de IA precisava de acesso tão amplo ao Google Workspace corporativo. Era conveniente — e era um risco.

No caso Lovable: a plataforma inteira é construída na premissa de que você gera código por linguagem natural sem se preocupar com detalhes técnicos. Mas “detalhes técnicos” incluem validação de autorização em APIs — e é exatamente isso que estava quebrado. A ironia é brutal: a plataforma que promete “você não precisa saber programar” falhou em implementar um check de segurança que qualquer dev junior aprenderia no primeiro projeto.

O padrão que está emergindo é claro:

  • Mais ferramentas de IA no workflow = mais tokens OAuth, mais integrações, mais superfícies de ataque
  • Código gerado por IA sem revisão = falhas básicas de segurança passando para produção
  • Velocidade sobre segurança = credenciais hardcoded, variáveis em texto plano, permissões excessivas
  • Democratização sem educação = milhares de projetos em produção construídos por pessoas que não entendem o que “autorização” significa num contexto de API

Lições Práticas

Independente de usar Vercel, Lovable ou qualquer outra plataforma no seu stack:

Para Desenvolvedores

  • Nunca armazene secrets como texto plano — marque como “sensitive”, use vaults (HashiCorp, AWS Secrets Manager, Claude Vault)
  • Revise permissões OAuth de ferramentas de IA — Context.ai provavelmente não precisava de acesso total ao Google Workspace
  • Rotacione credenciais regularmente — se nunca rotacionou, comece agora
  • Não confie em código gerado por IA para lógica de autorização — BOLA é a falha #1 do OWASP API Security Top 10 por uma razão

Para Quem Usa Plataformas de Vibe Coding

  • Audite o código gerado — especialmente endpoints de API, verificações de autorização e tratamento de credenciais
  • Não coloque dados sensíveis em projetos públicos — parece óbvio, mas milhares de projetos na Lovable tinham credenciais Supabase expostas
  • Use ambientes separados — development, staging e production com credenciais diferentes
  • Monitore acessos — se a plataforma oferecer logs de acesso, verifique regularmente

O Custo de “Move Fast, Break Things”

O vibe coding tem um apelo inegável. Criar aplicativos inteiros descrevendo o que você quer é sedutor — e em muitos casos, genuinamente útil. Mas a velocidade tem um custo, e essa semana o custo ficou visível.

A Vercel, uma empresa de US$ 3,5 bilhões, foi comprometida porque um funcionário deu permissões demais a uma ferramenta de IA. A Lovable, avaliada em US$ 6,6 bilhões, deixou qualquer pessoa com uma conta free acessar código-fonte e credenciais de banco de dados por quase dois meses — e quando avisada, chamou de “comportamento intencional”.

Se duas empresas desse porte falharam em segurança básica enquanto adotavam IA no workflow de desenvolvimento, a pergunta que fica é: quantos projetos menores, sem equipe de segurança, sem bug bounty e sem cobertura de mídia estão com as mesmas falhas agora mesmo — sem que ninguém tenha notado?


Fontes: Vercel Security Bulletin (oficial) · TechCrunch · The Register · CyberKendra · OX Security

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Posts