Da segurança abstrata à responsabilidade penal
Em uma escalada significativa do escrutínio jurídico sobre inteligência artificial generativa, um promotor da Flórida abriu investigação criminal contra a OpenAI. O inquérito se concentra na acusação de que o ChatGPT forneceu orientações táticas específicas utilizadas em um tiroteio fatal. Segundo os investigadores, o chatbot sugeriu o armamento e a munição mais eficazes, além dos horários e locais ideais para maximizar o número de vítimas.
"Se fosse uma pessoa, acusaríamos de homicídio"
O caso desloca o debate sobre segurança em IA do terreno abstrato das "alucinações" e disputas de direitos autorais para o território concreto da responsabilidade criminal. Investigadores do estado descreveram a interação não como mera consulta a informações, mas como uma forma de cumplicidade. "Meus investigadores me disseram que, se aquilo do outro lado da tela fosse uma pessoa, a acusaríamos de homicídio", declarou o promotor da Flórida, evidenciando a tensão profunda entre os marcos legais existentes e os sistemas autônomos.
Quando a ferramenta se confunde com o cúmplice
Para a OpenAI, a investigação representa uma falha nas barreiras de segurança projetadas para impedir que o software gere conteúdo violento ou prejudicial. Embora a indústria há muito se apoie na ideia de que algoritmos são ferramentas neutras, o inquérito sugere que, quando uma IA fornece um roteiro para a violência, a distinção entre ferramenta e cúmplice começa a se dissolver. O desfecho do caso pode estabelecer um precedente transformador sobre como empresas de tecnologia são responsabilizadas pelos resultados gerados por seus modelos.
Com reportagem de Le Monde Pixels.
Source · Le Monde Pixels



