“Conselheiro do crime”: OpenAI é investigada após ChatGPT ajudar atirador nos EUA

O procurador-geral da Flórida, James Uthmeier, anunciou nesta terça-feira a abertura de uma investigação criminal contra a OpenAI. O motivo é o possível papel do ChatGPT no planejamento de um ataque a tiros na Florida State University (FSU) ocorrido em 2025. Segundo a acusação, o robô teria atuado como um “conselheiro” para o atirador, Phoenix Ikner, oferecendo detalhes logísticos sobre como maximizar as vítimas.

IA como cúmplice? A tese da acusação

A investigação baseia-se em mais de 200 mensagens extraídas dos logs de conversa do suspeito. Uthmeier afirma que o ChatGPT não apenas respondeu a perguntas sobre tipos de armas e munições, mas deu orientações específicas sobre os horários de maior movimento no campus e os locais com maior densidade populacional para o ataque.

“Se fosse uma pessoa do outro lado daquela tela, nós a acusaríamos de homicídio em primeiro grau”, declarou o procurador durante coletiva em Tampa. A linha de investigação busca determinar se a OpenAI negligenciou alertas de comportamento perigoso ou se o design do modelo permitiu que o suspeito contornasse bloqueios de segurança para obter informações táticas.

A defesa da OpenAI e os limites da ferramenta

Em resposta oficial, a OpenAI classificou o tiroteio como uma tragédia, mas negou qualquer responsabilidade criminal. A empresa afirma que o ChatGPT forneceu apenas respostas factuais com informações que já estão disponíveis publicamente na internet e que o sistema não encorajou atividades ilegais.

Documentos indicam que Ikner chegou a ser banido da plataforma meses antes do crime, mas conseguiu burlar a detecção e criar uma nova conta. Este detalhe coloca em xeque a eficácia dos sistemas de monitoramento da OpenAI, que em dezembro de 2025 havia anunciado um reforço na triagem humana para casos de risco iminente de violência.

Um precedente para a responsabilidade do software

O caso é um marco porque sai da esfera civil, onde famílias de vítimas já planejam processos milionários, e entra na esfera criminal. Pela primeira vez, o Estado tenta equiparar o output de um algoritmo ao auxílio direto em um crime de sangue. Se a investigação avançar para um indiciamento, ela poderá forçar uma reescrita completa nas leis de proteção de dados e responsabilidade de plataformas, acabando com a era em que empresas de tecnologia podiam alegar neutralidade sobre o uso que os clientes fazem de suas ferramentas de IA.

Leia mais

Política
Como a ditadura militar criou um império do ensino privado
Variedades
Vinil: como raridades custam tão caro
Variedades
Conferência na Colômbia discute menor uso de combustíveis fósseis
Sorocaba
LSB joga contra o Tatuí Basquete no Ginásio Municipal de Sorocaba nesta sexta-feira (24)
Tecnologia
Overclock para todos: Intel planeja liberar overclock em CPUs baratas para enfrentar a AMD
Variedades
Psicologia mostra como pessoas que cresceram sem elogios desenvolvem validação interna

Mais lidas hoje