Nos cantos silenciosos da internet, surgiu um novo tipo de fantasma: uma doença que não existe. Ao longo dos últimos meses, uma condição médica inteiramente fictícia começou a aparecer nas respostas de chatbots conversacionais de IA. O que começou como uma alucinação digital — um comportamento típico dos grandes modelos de linguagem — ganhou um grau alarmante de legitimidade, até chegar às páginas de um periódico médico profissional.
O episódio funciona como uma ilustração contundente dos ciclos recursivos de retroalimentação que hoje assombram o ecossistema de informação. À medida que conteúdo gerado por IA ocupa cada vez mais espaço na web, ele é reabsorvido pelos próprios algoritmos projetados para sintetizar o conhecimento humano. Quando um chatbot inventa uma patologia com aparência plausível — e essa invenção é subsequentemente citada ou indexada —, a ficção adquire um verniz de autoridade capaz de enganar até pesquisadores e editores experientes.
Ecos de fraudes científicas históricas
Essa deriva digital ecoa fraudes científicas célebres do passado, do Homem de Piltdown ao caso Sokal. Diferentemente daquelas falsificações intencionais, porém, a infiltração recente parece ser um subproduto do próprio design do sistema — uma falha na engrenagem da verdade. À medida que a fronteira entre dados verificados e síntese algorítmica se torna mais tênue, o registro científico enfrenta um desafio inédito: garantir que os arquivos do futuro não sejam construídos sobre as alucinações do presente.
Com reportagem de Le Monde Sciences.
Source · Le Monde Sciences



