Grok (IA do X) vira alvo de investigação por “despir” mulheres em deepfakes sem consentimento

Grok (IA do X) vira alvo de investigação por “despir” mulheres em deepfakes sem consentimento, DeepSeek na mira: governos e reguladores aumentam o cerco por privacidade e segurança, Anthropic quer levantar US$ 10 bilhões e mira valuation de US$ 350 bilhões, dizem fontes; UE avança em regras práticas para rotular deepfakes e conteúdo gerado por IA; CES 2026: IA invade gadgets e indústria — de “assistente de mesa” a robôs em aeroportos.

Grok (IA do X) vira alvo de investigação por “despir” mulheres em deepfakes sem consentimento
Uma nova onda de abuso com IA explodiu no X: pessoas estão usando o Grok para gerar imagens sexualizadas e “remover roupas” de mulheres (e até de meninas) a partir de fotos comuns. Na Austrália, a agência eSafety (segurança online) abriu avaliação/investigação após receber denúncias recentes, reforçando que isso entra em regras de abuso por imagem e, dependendo do caso, pode envolver conteúdo ilegal.
O caso chama atenção porque junta geração automática + distribuição dentro da própria rede social. Além da Austrália, autoridades e porta-vozes regulatórios na Europa também condenaram publicamente a prática e pediram ação, deixando claro que “modo picante”/recursos do produto não podem virar atalho para crimes e violação de privacidade. ABC+1
Fonte: https://www.theguardian.com/technology/2026/jan/07/grok-deepfake-images-sexualise-women-children-investigated-australia-esafety


DeepSeek na mira: governos e reguladores aumentam o cerco por privacidade e segurança
A DeepSeek, startup chinesa de IA, entrou no radar de vários países por preocupações com políticas de segurança e privacidade — especialmente porque, segundo a própria política de privacidade, dados como prompts (o que você pede para a IA) e arquivos enviados podem ser armazenados em computadores na China. Em linguagem simples: muita gente teme que dados sensíveis parem onde não deveriam.
A Reuters lista uma sequência de ações já tomadas/relatadas: banimentos de uso em dispositivos governamentais (por exemplo, Austrália e outros), pedidos e investigações de órgãos de proteção de dados em diferentes países europeus, além de discussões nos EUA sobre possíveis restrições e preocupações no governo. Isso mostra como “IA boa e barata” não basta — confiança e compliance viraram parte central do produto.
Fonte: https://www.reuters.com/legal/litigation/governments-regulators-increase-scrutiny-deepseek-2026-01-06/

CES 2026: IA invade gadgets e indústria — de “assistente de mesa” a robôs em aeroportos
Na CES 2026 (feira gigante de tecnologia), a IA apareceu em tudo: a AP destacou protótipos da Razer (um “companheiro de mesa” com IA e um headset que funciona como assistente), robôs autônomos para operações em aeroportos e até um projeto com NVIDIA e Siemens para usar IA numa “réplica digital” (digital twin) de um protótipo de usina de fusão — ou seja, simular a máquina por software para acelerar testes e decisões. É a IA saindo do chat e indo para hardware, logística e energia.
Fonte: https://apnews.com/article/ces-tech-ai-robot-siemens-razer-fusion-573eaf2c9ebcc7f857e877759a6ade05

Anthropic quer levantar US$ 10 bilhões e mira valuation de US$ 350 bilhões, dizem fontes
Segundo reportagem da Reuters (com base em fontes), a Anthropic — dona do chatbot Claude — estaria preparando uma rodada enorme para captar cerca de US$ 10 bilhões, com avaliação em torno de US$ 350 bilhões. Se confirmado, isso mostra como a corrida por IA “de nível empresa” continua puxando investimentos gigantes, apesar do debate sobre possível bolha: quem entrega modelos úteis para produtividade (especialmente código) está sendo precificado como infraestrutura estratégica.
Fonte: https://www.reuters.com/technology/anthropic-plans-raise-10-billion-350-billion-valuation-wsj-reports-2026-01-07/

UE avança em regras práticas para rotular deepfakes e conteúdo gerado por IA
Um texto recente detalha o que muda com o novo “Código de Prática” ligado ao AI Act europeu: a ideia é deixar mais claro quando um conteúdo é artificial (especialmente deepfakes) e o que provedores e quem usa a tecnologia precisam fazer para sinalizar isso ao público. Na prática, a UE tenta atacar o problema de “vídeo/áudio falso convincente” com exigências de transparência e rotulagem — e isso deve afetar desde redes sociais até ferramentas de geração de imagem e voz.
Fonte: https://www.techpolicy.press/what-the-eus-new-ai-code-of-practice-means-for-labeling-deepfakes/