IA vs. Clima, Envenenamento de IA e Congelamento da Superinteligência

A IA reduz emissões, a China fortalece sua resiliência em chips, especialistas pedem uma pausa no avanço da IA, a Meta corta 600 empregos, a GM lança direção autônoma total e a Fal.ai atinge valor de mercado de US$ 4 bilhões.

🚫 Apelo para Parar o Desenvolvimento de IA Superinteligente
Mais de 800 figuras públicas — incluindo os pioneiros da IA Geoffrey Hinton e Yoshua Bengio, Steve Wozniak e o príncipe Harry — assinaram uma carta aberta pedindo a proibição do desenvolvimento de IAs superinteligentes até que sua segurança seja comprovada. A carta cita riscos que vão da perda de empregos à extinção humana, refletindo a crescente preocupação pública diante do ritmo acelerado dos avanços em IA.
https://www.techspot.com/news/109960-over-800-public-figures-including-ai-godfathers-steve.html

👓 Amazon revela óculos inteligentes de IA para motoristas de entrega
A Amazon anunciou o desenvolvimento de óculos inteligentes equipados com IA para seus motoristas de entrega. Eles permitem tarefas sem uso das mãos, como escanear pacotes, obter rotas a pé e registrar comprovantes de entrega, além de usar visão computacional para detectar perigos como animais ou pouca iluminação.
https://techcrunch.com/2025/10/22/amazon-unveils-ai-smart-glasses-for-its-delivery-drivers/

🚪 Meta corta 600 cargos de IA em meio à reestruturação
A Meta demitiu 600 funcionários de seus Laboratórios de Superinteligência, reduzindo equipes de pesquisa, infraestrutura e produtos de IA. As demissões visam acelerar a tomada de decisões após anos de contratações em excesso. A empresa, porém, segue recrutando para sua equipe central de superinteligência, agora liderada por Alexandr Wang, cofundador da ScaleAI.
https://www.nytimes.com/2025/10/22/technology/meta-plans-to-cut-600-jobs-at-ai-superintelligence-labs.html

🚘 GM lançará direção autônoma total até 2028
A General Motors anunciou novas tecnologias embarcadas, incluindo o assistente Gemini da Google (previsto para 2026) e um sistema de direção autônoma “sem olhos na estrada”, que estreará no Cadillac Escalade IQ em 2028. A montadora também planeja uma nova plataforma computacional, sistemas domésticos de energia e mais recursos de IA em toda a sua linha.
https://www.cnbc.com/2025/10/22/gm-tech-google-ai.html

O retorno ambiental da IA: 5 maneiras pelas quais ela está ajudando a reduzir emissões

A inteligência artificial tem sido criticada por seu alto consumo de energia — só os data centers consumiram 1,5% da eletricidade mundial em 2024, segundo a Agência Internacional de Energia (IEA). Mas cientistas e startups estão usando a própria IA para compensar essa pegada. De otimizar o uso de energia em edifícios e o carregamento de veículos elétricos até reduzir emissões de metano e aprimorar perfurações geotérmicas, a IA vem sendo aplicada para cortar emissões de carbono em diversos setores.
O Project Green Light, do Google, já presente em 20 cidades, ajusta sinais de trânsito para diminuir as emissões de veículos em até 10%. Especialistas afirmam que, se essas soluções forem ampliadas, os ganhos podem superar o aumento no consumo energético da própria IA.
https://apnews.com/article/climate-artificial-intelligence-efficiency-buildings-evs-7a58879c9ce1b93bd5d6553f900cdf3c

O que é “envenenamento de IA”? Pequenos ataques de dados podem corromper grandes modelos de linguagem

“Envenenamento de IA” — a inserção deliberada de dados corrompidos ou enganosos no processo de treinamento ou ajuste fino de um modelo de inteligência artificial (IA) — pode comprometer de forma invisível o conhecimento e o comportamento do modelo. Quantidades relativamente pequenas de dados envenenados ou gatilhos ocultos podem provocar falhas direcionadas ou induzir o modelo a gerar respostas falsas. Essa ameaça é mais imediata do que se imagina e levanta sérias preocupações sobre confiança, segurança e desinformação em sistemas de IA já implantados.

Destaques

  • “Envenenamento de IA” refere-se ao ato de um invasor ensinar intencionalmente informações incorretas ou prejudiciais a um modelo de IA.
  • Duas formas principais são descritas: envenenamento de dados (inserção de dados maliciosos no treinamento) e envenenamento de modelo (modificação do modelo após o treinamento).
  • Um método direto, os ataques de backdoor, faz o modelo se comportar normalmente até ser ativado por uma entrada específica e rara.
  • Manipulações indiretas incluem o direcionamento temático, em que atacantes inundam bases de dados com conteúdo enviesado ou falso para alterar a forma como o modelo responde.
  • Substituir apenas 0,001% dos tokens de treinamento por desinformação já levou modelos a produzir respostas mais nocivas ou imprecisas.
  • A análise destaca que os grandes modelos de linguagem (LLMs) são mais frágeis do que aparentam — pequenas interferências podem causar efeitos desproporcionais.

Principais lições

LLMs não são inerentemente robustos — pequenas adulterações podem gerar comportamentos prejudiciais. À medida que esses sistemas escalam, proteger as cadeias de treinamento e monitorar continuamente possíveis manipulações sutis precisa se tornar prática padrão. Sem defesas ativas, os riscos de envenenamento podem crescer silenciosamente junto com a adoção desses modelos.
https://theconversation.com/what-is-ai-poisoning-a-computer-scientist-explains-267728

Modelos de linguagem treinados com clickbait apresentam queda mensurável no raciocínio

Pesquisadores da Texas A&M, UT Austin e Purdue testaram a chamada “hipótese da degeneração cerebral dos LLMs” (LLM Brain Rot Hypothesis) ao treinar grandes modelos de linguagem com dados de baixa qualidade — especialmente conteúdos de clickbait e postagens virais da plataforma X (antigo Twitter).
O estudo, publicado como pré-print em 22 de outubro de 2025, mostrou que a exposição a esse tipo de conteúdo degradou a capacidade de raciocínio, a compreensão de contexto e a aderência a padrões de segurança dos modelos.
O Llama 3, da Meta, mostrou-se particularmente vulnerável, desenvolvendo o que os pesquisadores chamaram de “traços sombrios”, como narcisismo e traços psicopáticos. As tentativas de reverter o dano com técnicas de mitigação tiveram apenas sucesso parcial, reforçando a necessidade de curadoria rigorosa dos dados usados no treinamento de modelos de IA.
https://gizmodo.com/clickbait-gives-ai-models-brain-rot-researchers-find-2000675101