Desde a estreia pública do ChatGPT no fim de 2022, a utilidade dos grandes modelos de linguagem passou por uma rápida — e ilícita — tradução prática. O que começou como curiosidade capaz de gerar textos com fluência humana se converteu em infraestrutura essencial para cibercriminosos. Com o uso de IA generativa, agentes maliciosos deixaram para trás os e-mails de phishing toscos e cheios de erros gramaticais, substituindo-os por campanhas sofisticadas e direcionadas e por deepfakes hiper-realistas projetados para driblar até os filtros humanos mais céticos.
O impacto da IA no submundo digital não se resume a uma única descoberta técnica — trata-se da industrialização de todo o ciclo de exploração de vulnerabilidades. Criminosos já empregam IA para ofuscar código de malware, tornando-o invisível para softwares de segurança tradicionais, e para automatizar o trabalho tedioso de varrer redes em busca de brechas. Uma vez dentro de um sistema, ferramentas de IA conseguem vasculhar rapidamente oceanos de dados roubados para identificar os ativos mais valiosos, transformando uma violação de dados caótica em um processo de extração organizado e eficiente.
Essa mudança tecnológica reduziu de forma significativa a barreira de entrada para aspirantes a atacantes. A Interpol já emitiu alertas sobre centrais de golpes no Sudeste Asiático que utilizam ferramentas baratas de IA para gerenciar grandes volumes de vítimas e reorientar suas operações com velocidade sem precedentes. À medida que essas ferramentas ficam mais baratas e acessíveis, o cenário de ameaças migra de ataques artesanais e manuais para um cerco persistente e automatizado — desafiando os sistemas projetados para manter o mundo digital seguro.
Com reportagem de MIT Technology Review.
Source · MIT Technology Review


