IA Todo Dia
← Voltar às notícias
Segurança

Vercel é invadida após funcionário dar acesso total a ferramenta de IA no Google Workspace

Vercel é invadida após funcionário dar acesso total a ferramenta de IA no Google Workspace

A Vercel, empresa por trás do popular framework Next.js, confirmou uma invasão que expõe um problema cada vez mais comum na era da IA corporativa: funcionários conectando ferramentas de inteligência artificial a contas corporativas com permissões ilimitadas. O grupo ShinyHunters assumiu o ataque e estaria pedindo US$ 2 milhões pelos dados. E a origem de tudo, segundo investigações, teria sido o download de um cheat de Roblox.

O caso é um daqueles que parecem roteiro mal escrito, mas ilustra bem como a segurança virou um nó difícil de desatar quando IA, OAuth e descuido humano se misturam.

Como o ataque aconteceu

De acordo com o comunicado da Vercel, a brecha não começou dentro da empresa, e sim em um parceiro: a Context.ai, plataforma que cria agentes de IA treinados com conhecimento corporativo. Pelo menos um funcionário da Vercel se cadastrou no serviço usando a conta corporativa e concedeu permissões OAuth do tipo “Allow All” ao Google Workspace da empresa.

Vercel é invadida após funcionário dar acesso total a ferramenta de IA no Google Workspace
Foto de Sasun Bughdaryan no Unsplash

Com esse acesso amplo, o invasor tomou a conta do colaborador e se movimentou lateralmente por sistemas internos. A configuração OAuth da Vercel, segundo a própria Context.ai, permitia que esse tipo de autorização fosse feita sem restrições.

A empresa de cibersegurança Hudson Rock afirma ter rastreado a origem do comprometimento ainda mais fundo: um funcionário da Context.ai teria sido infectado pelo malware Lumma Stealer em fevereiro, após baixar scripts de trapaça para o Roblox. As credenciais roubadas incluíam logins do Google Workspace e chaves de serviços como Supabase, Datadog e Authkit, conforme reportado pelo Tom’s Hardware.

O que foi exposto e a resposta da Vercel

A Vercel diz que apenas variáveis de ambiente não sensíveis foram expostas. Variáveis marcadas como “sensíveis” são criptografadas em repouso e, segundo a empresa, não foram acessadas. Ainda assim, a recomendação é que clientes tratem qualquer variável não marcada como sensível como potencialmente comprometida.

A companhia acionou a Mandiant, braço de resposta a incidentes do Google, notificou as autoridades e contatou diretamente um grupo restrito de clientes afetados. O invasor foi descrito como “altamente sofisticado, dada a velocidade operacional e o conhecimento detalhado dos sistemas da Vercel”.

A Context.ai também admitiu ter bloqueado acessos não autorizados ao seu ambiente AWS em março, mas reconheceu depois que tokens OAuth de usuários consumidores haviam sido comprometidos.

Por que isso importa pra você

O incidente mostra um padrão novo e perigoso: ferramentas de IA corporativa funcionam como pontes de confiança entre serviços como Google Workspace, Slack e GitHub. Quando um usuário clica em “permitir tudo” sem pensar, está basicamente entregando as chaves da empresa a um fornecedor terceirizado — e, indiretamente, a qualquer um que invada esse fornecedor.

O problema se agrava porque muitas plataformas de IA surgem rápido, com equipes pequenas e segurança ainda imatura. Conceder permissões amplas de OAuth pra um agente de IA é equivalente a dar acesso de administrador a um estagiário no primeiro dia — só que esse estagiário é operado por software e pode ser sequestrado.

Pra empresas, a lição é direta: revisar configurações OAuth, limitar escopos de permissão e criar listas de aplicativos aprovados. Pra usuários, vale a regra de sempre: desconfiar de permissões “allow all” e entender que, quanto mais uma ferramenta de IA “sabe” sobre você ou sua empresa, maior o estrago se ela for invadida.

Enquanto a corrida pela adoção de IA acelera, a segurança segue correndo atrás — e, às vezes, tropeçando num download de trapaça de Roblox.

Fonte: Tom's Hardware · Imagem de capa: Tom's Hardware

Fonte original: Tom's Hardware