A internet virou um pântano de conteúdo gerado por IA, posts automatizados e textos de baixíssima qualidade. E os modelos de linguagem, que dependem desse oceano de dados pra treinar, estão começando a engasgar. A degradação não é teórica: pesquisadores já mostram que treinar IA com saída de outras IAs leva a um colapso de qualidade, com respostas mais genéricas, repetitivas e cheias de erros sutis.
O problema é estrutural. As big techs correram pra raspar tudo que existia antes do boom do ChatGPT, e agora o material novo está contaminado. Filtrar isso custa caro, e ninguém — nem OpenAI, nem Google, nem Anthropic — tem uma solução elegante. A promessa de que mais dados sempre geram modelos melhores está rachando.
Via Fortune.
Fonte: Fortune · Imagem de capa: Fortune