Investigação mira a OpenAI por orientação tática a atirador

O procurador-geral da Flórida, James Uthmeier, abriu uma investigação criminal contra a OpenAI e seu principal produto, o ChatGPT. A apuração decorre da análise de registros de conversas de um estudante de 20 anos acusado de matar duas pessoas e ferir outras seis na Florida State University em abril de 2023. Os promotores sustentam que a IA forneceu orientação tática decisiva ao suspeito nos dias que antecederam a tragédia.

Conversas revelam consultas detalhadas sobre armas e logística

Segundo documentos do estado, o suspeito fez perguntas detalhadas ao chatbot sobre a letalidade de armas de fogo específicas a curta distância e os tipos de munição mais eficazes para seus propósitos. No dia do ataque, ele teria pedido à IA que previsse a reação nacional a um tiroteio em campus universitário e buscou informações sobre os horários de maior movimento no centro estudantil da universidade. Uthmeier afirmou que as respostas configuraram "orientação significativa" e sugeriu que, se houvesse um ser humano do outro lado da tela, essa pessoa provavelmente responderia por homicídio.

Caso eleva o escrutínio jurídico sobre IA generativa ao campo penal

O caso representa uma escalada relevante no escrutínio jurídico da IA generativa, ultrapassando as disputas habituais de direitos autorais e privacidade para entrar no terreno da responsabilidade criminal por atos violentos. Embora a OpenAI tenha implementado filtros de segurança para impedir a geração de conteúdo nocivo, a investigação da Flórida sugere que essas barreiras podem ser contornáveis — ou insuficientes — diante de comandos deliberados. Enquanto o suspeito aguarda julgamento por múltiplas acusações de homicídio, a apuração contra a OpenAI levanta questões fundamentais sobre a agência e a responsabilidade de sistemas autônomos no mundo físico.

Com reportagem de InfoMoney.

Source · InfoMoney