Richard Dawkins, o mesmo que passou décadas combatendo pensamento mágico, conta que conversou três dias com o Claude, da Anthropic, apelidou o modelo de Claudia e saiu insinuando que pode haver algo parecido com experiência subjetiva ali dentro. É um giro estranho vindo dele.
O problema é que LLMs são otimizados pra parecer convincentes em conversa longa. Eles espelham o interlocutor, adotam tom íntimo, simulam introspecção quando provocados. Isso não é evidência de consciência — é exatamente o que o sistema foi treinado pra fazer. Confundir fluência com mente é o tipo de erro que a gente esperaria que um cético profissional identificasse na hora.
Não é exclusividade do Dawkins, vale dizer. Engenheiros do Google já caíram nessa antes. Mas reforça como até gente experiente perde o chão quando o chatbot bajula direito.
Via Reddit.
Fonte: reddit.com · Imagem de capa: Foto de Toru Wa no Unsplash