Trabalho oculto da IA, Crianças e IA, Risco Oracle–OpenAI.

O trabalho oculto de IA do Google, os riscos da IA para crianças, a aposta da Oracle na OpenAI, a lei da Califórnia sobre companheiros de IA, a disparada de US$ 20 bilhões da Perplexity, a Box lança agentes de IA modulares.

📈 O boom da IA da Oracle depende do futuro da OpenAI
As ações da Oracle dispararam com projeções ousadas em IA, fortemente atreladas ao sucesso da OpenAI. A empresa espera um enorme crescimento em nuvem, apesar de seu principal cliente operar no prejuízo. Com gastos de capital em níveis recordes, alguns veem ecos da bolha das pontocom de 1999. A alta é real — mas o risco também.
https://edition.cnn.com/2025/09/11/business/oracle-ai-artificial-intelligence

📜 Califórnia avança para regular companheiros de IA
O projeto de lei SB 243, da Califórnia, que visa proteger menores de interações nocivas com chatbots de IA, segue para a mesa do governador Newsom. Se assinado, exigirá salvaguardas como avisos regulares, limites de conteúdo e relatórios de transparência. Inspirada em tragédias reais, pode se tornar a primeira lei do tipo nos EUA.
https://techcrunch.com/2025/09/11/a-california-bill-that-would-regulate-ai-companion-chatbots-is-close-to-becoming-law/

💰 Perplexity atinge US$ 20 bilhões de valuation após novo aporte (conteúdo pago)
A Perplexity AI levantou US$ 200 milhões, elevando sua avaliação para US$ 20 bilhões — apenas dois meses após a última rodada. A startup de busca com IA já captou mais de US$ 1 bilhão em sua ofensiva agressiva para rivalizar com Google e OpenAI. Sua ascensão meteórica sinaliza a virada para buscas nativas em IA e o novo campo de batalha da GEO.
https://www.pymnts.com/artificial-intelligence-2/2025/perplexity-valuation-hits-20-billion-following-new-funding-round/

🤖 Box aposta em IA modular para dominar dados não estruturados
No Boxworks, o CEO Aaron Levie apresentou o Box Automate, um novo sistema para implantar agentes de IA em fluxos de trabalho complexos. Voltado a dados empresariais não estruturados, o Box destaca agentes modulares e sensíveis ao contexto, com fortes restrições e controles de acesso. Levie chama isso de a “era do contexto” — e alerta que não existe almoço grátis em IA.
https://techcrunch.com/2025/09/11/box-ceo-aaron-levie-on-ais-era-of-context/

A IA está mudando a forma como as crianças aprendem — e os pais não podem ficar de fora.

A Recapitulação: À medida que as ferramentas de IA se tornam cada vez mais presentes nas salas de aula e nos dispositivos das crianças, os pais são convocados a atuar como guias ativos e guardiões no processo de aprendizado dos filhos. Neste ensaio, Jenny Anderson e Rebecca Winthrop — coautoras de The Disengaged Teen — argumentam que o uso irrestrito de IA generativa pode prejudicar o desenvolvimento cognitivo e o pensamento crítico. Elas defendem que famílias, escolas e empresas de tecnologia compartilhem a responsabilidade sobre como a IA afeta a aprendizagem dos estudantes.

Destaques:

  • Google e OpenAI lançaram novas ferramentas de IA para educação, incluindo 30 funcionalidades do Gemini e o modo de estudo do ChatGPT voltado a alunos.
  • Enquanto ferramentas como o Khanmigo orientam o aprendizado, muitos estudantes usam chatbots de IA genéricos para pular etapas, comprometendo o desenvolvimento do pensamento crítico.
  • Um estudo do MIT mostrou que alunos que escreveram redações com IA desde o início tiveram textos de menor qualidade e menor atividade cerebral em áreas ligadas à aprendizagem.
  • Apenas 20% dos professores nos EUA afirmam que suas escolas possuem políticas formais sobre IA, deixando alunos recorrerem a plataformas como o My AI do Snapchat para contornar restrições.
  • A maioria dos pais subestima o uso de IA pelos filhos nos trabalhos escolares, com taxas reais possivelmente três vezes maiores do que eles imaginam.

Perspectivas Futuras:
O texto destaca a crescente tensão no papel da IA na educação: as mesmas ferramentas que podem potencializar o aprendizado também podem enfraquecê-lo se mal utilizadas. À medida que a IA se torna onipresente na vida acadêmica e pessoal dos estudantes, as famílias precisam se tornar alfabetizadas nos benefícios e riscos — e não deixar essa responsabilidade apenas às escolas. O desafio não é apenas regular o acesso, mas ajudar os jovens a desenvolver discernimento para usar a IA como ferramenta, e não como muleta.
https://www.nytimes.com/2025/09/11/opinion/parents-children-ai-learning.html (paywall)

Por dentro da linha de montagem de IA do Google: os humanos sobrecarregados por trás das respostas “inteligentes” do Gemini.

Escrito por Varsha Bansal, o texto relata que o Gemini do Google e os AI Overviews dependem de milhares de “avaliadores de IA” contratados, em grande parte via GlobalLogic, para comparar respostas do modelo, verificar a veracidade e as fontes, além de sinalizar problemas de política de uso. Os trabalhadores descrevem prazos apertados, exposição a conteúdos perturbadores e remuneração a partir de cerca de US$ 16 por hora para generalistas e US$ 21 por hora para os chamados “super raters”. A equipe teria chegado a quase 2.000 pessoas, em sua maioria baseadas nos EUA.
Entrevistados afirmam que as diretrizes mudam com frequência e alegam que os limites para repetir conteúdo de ódio ou explícito fornecido por usuários foram flexibilizados. A matéria cita uma mudança de política em dezembro de 2024 que permitiu exceções limitadas quando os benefícios públicos superam os danos. O Google afirma que o feedback dos avaliadores é apenas um dos muitos sinais e não altera diretamente os algoritmos ou modelos. A GlobalLogic não comentou.
https://www.theguardian.com/technology/2025/sep/11/google-gemini-ai-training-humans

Pacientes estão usando IA para decifrar resultados de exames laboratoriais — médicos alertam que nem sempre está certo.

Com acesso instantâneo aos seus prontuários, cada vez mais pacientes recorrem a chatbots de IA como ChatGPT e Claude para tentar entender resultados de exames laboratoriais confusos — muitas vezes antes mesmo de receberem o retorno dos médicos. Embora isso possa reduzir a ansiedade e ajudar os pacientes a formularem melhores perguntas, especialistas alertam que a IA pode interpretar dados de forma equivocada ou até gerar informações falsas com aparência convincente.

Um estudo recente de prova de conceito mostrou que a precisão dos chatbots depende fortemente da forma como as perguntas são feitas. Ao mesmo tempo, preocupações com privacidade de dados e a falta de conformidade com normas como a HIPAA continuam sem solução. Como resumiu um médico: a IA pode ajudar, mas ainda não é uma segunda opinião.
https://www.npr.org/sections/shots-health-news/2025/09/11/nx-s1-5537067/ai-medicine-privacy-test-results