O custo moral da promessa científica
Durante anos, a indústria de tecnologia ofereceu uma barganha moral: o consumo energético descomunal e a disrupção cultural provocados pela inteligência artificial em larga escala seriam custos necessários para um futuro de descobertas radicais. Essa retórica — segundo a qual vídeos de baixa qualidade e chatbots são meros subprodutos de uma busca por curas para o câncer ou soluções para a crise climática — está sendo posta à prova agora que os líderes do setor direcionam seus esforços para "co-cientistas de IA". Esses sistemas são projetados para ir além da assistência burocrática, como redigir artigos ou resumir literatura, rumo à geração autônoma de hipóteses e ao desenho de experimentos.
O efeito Nobel
O prestígio dessa empreitada atingiu seu ponto máximo com o Nobel concedido ao Google DeepMind em 2024, pelo trabalho do AlphaFold na previsão de estruturas de proteínas. O feito transformou a IA científica de nicho acadêmico em fronteira competitiva. Desde então, o Google lançou ferramentas dedicadas de co-cientista, enquanto a Anthropic introduziu funcionalidades voltadas especificamente para pesquisa biológica — sinalizando uma transição de modelos de uso geral para instrumentos especializados de laboratório.
A "Estrela-Guia" da OpenAI
A OpenAI definiu a criação de um pesquisador autônomo como sua "Estrela-Guia" e lançou recentemente o GPT-Rosalind, primeiro de uma série de modelos científicos especializados. A ambição é criar um par digital capaz de navegar as complexidades do método científico com intervenção humana mínima. Se esses agentes conseguirão de fato replicar a intuição e o rigor de um cientista humano permanece uma questão em aberto — mas, para as empresas que os constroem, o que está em jogo é tanto a legitimidade institucional quanto o avanço técnico.
Com reportagem de MIT Technology Review.
Source · MIT Technology Review


