A guerra moderna atravessa uma transição silenciosa, mas estrutural. No teatro de operações, a inteligência artificial deixou a periferia da análise de dados e se tornou participante ativa em tempo real. Da geração de alvos à coordenação de manobras complexas de enxames de drones, sistemas de IA já estão integrados à cadeia cinética. Essa mudança deflagrou um embate jurídico e ético, ilustrado pelo atrito entre o Pentágono e desenvolvedoras como a Anthropic sobre os limites da automação militar.
Para mitigar os riscos desses sistemas autônomos, o Pentágono se apoia na doutrina do "humano no controle" (human in the loop). A premissa é que, enquanto houver uma pessoa supervisionando o processo decisório, o sistema permanece responsável, criterioso e protegido contra os caprichos de um algoritmo fora de controle. Na prática, porém, essa supervisão pode ser mais performática do que protetiva. À medida que os sistemas ganham complexidade, o supervisor humano frequentemente se torna um mero carimbo de aprovação para processos que não consegue de fato compreender.
A falha fundamental das diretrizes militares atuais é a premissa de transparência. A IA de ponta continua sendo uma "caixa-preta" — uma arquitetura opaca em que entradas geram saídas por meio de uma lógica que nem seus criadores conseguem mapear por completo. Quando um operador age com base em um alvo gerado por IA, ele não está exercendo julgamento informado; está confiando em um sistema cujo raciocínio interno é, na prática, incognoscível. No ambiente de alto risco do campo de batalha, o humano no controle é cada vez mais um passageiro num veículo que não sabe dirigir.
Com reportagem de MIT Technology Review.
Source · MIT Technology Review



