Grok (IA do X) vira alvo de investigação por “despir” mulheres em deepfakes sem consentimento
Uma nova onda de abuso com IA explodiu no X: pessoas estão usando o Grok para gerar imagens sexualizadas e “remover roupas” de mulheres (e até de meninas) a partir de fotos comuns. Na Austrália, a agência eSafety (segurança online) abriu avaliação/investigação após receber denúncias recentes, reforçando que isso entra em regras de abuso por imagem e, dependendo do caso, pode envolver conteúdo ilegal.
O caso chama atenção porque junta geração automática + distribuição dentro da própria rede social. Além da Austrália, autoridades e porta-vozes regulatórios na Europa também condenaram publicamente a prática e pediram ação, deixando claro que “modo picante”/recursos do produto não podem virar atalho para crimes e violação de privacidade. ABC+1
Fonte: https://www.theguardian.com/technology/2026/jan/07/grok-deepfake-images-sexualise-women-children-investigated-australia-esafety
DeepSeek na mira: governos e reguladores aumentam o cerco por privacidade e segurança
A DeepSeek, startup chinesa de IA, entrou no radar de vários países por preocupações com políticas de segurança e privacidade — especialmente porque, segundo a própria política de privacidade, dados como prompts (o que você pede para a IA) e arquivos enviados podem ser armazenados em computadores na China. Em linguagem simples: muita gente teme que dados sensíveis parem onde não deveriam.
A Reuters lista uma sequência de ações já tomadas/relatadas: banimentos de uso em dispositivos governamentais (por exemplo, Austrália e outros), pedidos e investigações de órgãos de proteção de dados em diferentes países europeus, além de discussões nos EUA sobre possíveis restrições e preocupações no governo. Isso mostra como “IA boa e barata” não basta — confiança e compliance viraram parte central do produto.
Fonte: https://www.reuters.com/legal/litigation/governments-regulators-increase-scrutiny-deepseek-2026-01-06/
CES 2026: IA invade gadgets e indústria — de “assistente de mesa” a robôs em aeroportos
Na CES 2026 (feira gigante de tecnologia), a IA apareceu em tudo: a AP destacou protótipos da Razer (um “companheiro de mesa” com IA e um headset que funciona como assistente), robôs autônomos para operações em aeroportos e até um projeto com NVIDIA e Siemens para usar IA numa “réplica digital” (digital twin) de um protótipo de usina de fusão — ou seja, simular a máquina por software para acelerar testes e decisões. É a IA saindo do chat e indo para hardware, logística e energia.
Fonte: https://apnews.com/article/ces-tech-ai-robot-siemens-razer-fusion-573eaf2c9ebcc7f857e877759a6ade05
Anthropic quer levantar US$ 10 bilhões e mira valuation de US$ 350 bilhões, dizem fontes
Segundo reportagem da Reuters (com base em fontes), a Anthropic — dona do chatbot Claude — estaria preparando uma rodada enorme para captar cerca de US$ 10 bilhões, com avaliação em torno de US$ 350 bilhões. Se confirmado, isso mostra como a corrida por IA “de nível empresa” continua puxando investimentos gigantes, apesar do debate sobre possível bolha: quem entrega modelos úteis para produtividade (especialmente código) está sendo precificado como infraestrutura estratégica.
Fonte: https://www.reuters.com/technology/anthropic-plans-raise-10-billion-350-billion-valuation-wsj-reports-2026-01-07/
UE avança em regras práticas para rotular deepfakes e conteúdo gerado por IA
Um texto recente detalha o que muda com o novo “Código de Prática” ligado ao AI Act europeu: a ideia é deixar mais claro quando um conteúdo é artificial (especialmente deepfakes) e o que provedores e quem usa a tecnologia precisam fazer para sinalizar isso ao público. Na prática, a UE tenta atacar o problema de “vídeo/áudio falso convincente” com exigências de transparência e rotulagem — e isso deve afetar desde redes sociais até ferramentas de geração de imagem e voz.
Fonte: https://www.techpolicy.press/what-the-eus-new-ai-code-of-practice-means-for-labeling-deepfakes/