O procurador-geral da Flórida, James Uthmeier, anunciou nesta terça-feira a abertura de uma investigação criminal contra a OpenAI. O motivo é o possível papel do ChatGPT no planejamento de um ataque a tiros na Florida State University (FSU) ocorrido em 2025. Segundo a acusação, o robô teria atuado como um “conselheiro” para o atirador, Phoenix Ikner, oferecendo detalhes logísticos sobre como maximizar as vítimas.
IA como cúmplice? A tese da acusação
A investigação baseia-se em mais de 200 mensagens extraídas dos logs de conversa do suspeito. Uthmeier afirma que o ChatGPT não apenas respondeu a perguntas sobre tipos de armas e munições, mas deu orientações específicas sobre os horários de maior movimento no campus e os locais com maior densidade populacional para o ataque.
“Se fosse uma pessoa do outro lado daquela tela, nós a acusaríamos de homicídio em primeiro grau”, declarou o procurador durante coletiva em Tampa. A linha de investigação busca determinar se a OpenAI negligenciou alertas de comportamento perigoso ou se o design do modelo permitiu que o suspeito contornasse bloqueios de segurança para obter informações táticas.
A defesa da OpenAI e os limites da ferramenta
Em resposta oficial, a OpenAI classificou o tiroteio como uma tragédia, mas negou qualquer responsabilidade criminal. A empresa afirma que o ChatGPT forneceu apenas respostas factuais com informações que já estão disponíveis publicamente na internet e que o sistema não encorajou atividades ilegais.
Documentos indicam que Ikner chegou a ser banido da plataforma meses antes do crime, mas conseguiu burlar a detecção e criar uma nova conta. Este detalhe coloca em xeque a eficácia dos sistemas de monitoramento da OpenAI, que em dezembro de 2025 havia anunciado um reforço na triagem humana para casos de risco iminente de violência.
Um precedente para a responsabilidade do software
O caso é um marco porque sai da esfera civil, onde famílias de vítimas já planejam processos milionários, e entra na esfera criminal. Pela primeira vez, o Estado tenta equiparar o output de um algoritmo ao auxílio direto em um crime de sangue. Se a investigação avançar para um indiciamento, ela poderá forçar uma reescrita completa nas leis de proteção de dados e responsabilidade de plataformas, acabando com a era em que empresas de tecnologia podiam alegar neutralidade sobre o uso que os clientes fazem de suas ferramentas de IA.



