O debate em torno da inteligência artificial passou por uma transformação profunda, saindo do otimismo técnico que marcou a última década rumo a um registro mais sóbrio e existencial. Um número crescente de pesquisadores e veteranos da indústria vem intensificando os alarmes, sugerindo que a trajetória dos sistemas autônomos pode levar, em última instância, ao deslocamento ou mesmo à extinção da humanidade. Esses alertas, antes confinados às margens da ficção científica, já ocupam o centro do debate acadêmico e das discussões sobre políticas públicas.
O foco no chamado "p-doom" — a probabilidade de um desfecho catastrófico — traz, contudo, suas próprias complicações. Críticos da narrativa de risco existencial argumentam que esses cenários especulativos de fim do mundo carecem, com frequência, de base empírica e podem desviar a atenção do público e dos reguladores de danos mais imediatos e concretos. Questões como viés algorítmico, erosão da privacidade e deslocamento de postos de trabalho já estão remodelando a sociedade, mas correm o risco de ser ofuscadas pelo espetáculo teórico de uma superinteligência fora de controle.
Há, além disso, uma preocupação estratégica: a retórica da catástrofe pode, inadvertidamente, facilitar a captura regulatória. Ao enquadrar a IA como uma tecnologia potencialmente letal que exige supervisão extrema, grandes empresas de tecnologia podem pressionar por regimes de licenciamento que consolidem seu poder, dificultando a entrada de desenvolvedores de código aberto ou concorrentes menores no mercado. À medida que o volume desses alertas aumenta, o desafio para a comunidade científica está em distinguir entre prudência de longo prazo e uma retórica que obscurece os problemas do presente.
Com reportagem de Nature News.
Source · Nature News



