Do boicote online aos protestos nas ruas: entenda a crise da OpenAI com seus próprios usuários e funcionários

Na noite de quinta-feira, 27 de fevereiro, Sam Altman publicou no X: “Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada.” O timing era calculado: horas antes, o governo Trump havia instruído agências federais a pararem de usar tecnologia da Anthropic, concorrente direta da OpenAI.

O acordo autorizava o Pentágono a usar os sistemas de IA da OpenAI para “qualquer finalidade legal” — exatamente a cláusula que a Anthropic recusara por meses. A Anthropic tivera um contrato de US$ 200 milhões com o Departamento de Defesa, assinado em julho de 2025 para rodar o Claude em redes classificadas, mas o relacionamento azedou quando o Pentágono exigiu remover restrições contra vigilância em massa de cidadãos americanos e armas autônomas sem supervisão humana.

295% de desinstalações e o Claude no topo da App Store

A Sensor Tower mediu a reação em tempo real: as desinstalações do app do ChatGPT subiram 295% em relação ao dia anterior no dia 28 de fevereiro. As avaliações de uma estrela cresceram 775% em 24 horas.No mesmo período, os downloads do Claude, da Anthropic, aumentaram 51%, o que levou o app à primeira posição na App Store dos EUA. Os servidores da empresa registraram sobrecarga: novos usuários viram mensagens de erro e instabilidade nas primeiras horas.

Protestos na Califórnia e em Londres

O descontentamento saiu do digital no dia 3 de março, quando entre 40 e 50 manifestantes se reuniram em frente à sede da OpenAI em Mission Bay, São Francisco. O ato foi organizado pelo movimento QuitGPT, que já reunia 1,5 milhão de apoiadores numa campanha de boicote à empresa. Os participantes seguravam cartazes com frases como “Sam Altman está te observando” e escreveram no calçado frases como “Tecnologia a serviço da humanidade, não da guerra” e “Sem robôs assassinos”.

Perrin Milliken, moradora de São Francisco que participou do ato, resumiu a posição do grupo: “O governo não deveria ter esse tipo de informação. Temos direito à privacidade, e esse volume de dados concentrado em tão poucas mãos é assustador.” O protesto aconteceu mesmo com ventos fortes que derrubaram cartazes e com seguranças mantendo um perímetro rígido ao redor da propriedade da empresa. No fim de semana anterior, centenas de ativistas também se concentraram no bairro de King’s Cross, em Londres, próximo às instalações do Google DeepMind, para criticar a expansão da IA militar.

Altman admite erro e revisa o contrato

Na segunda-feira, 2 de março, Altman publicou no X um memorando interno no qual admitiu que a empresa “não deveria ter corrido para anunciar isso numa sexta-feira” e que o resultado “pareceu oportunista e malfeito”: “Estávamos genuinamente tentando desescalar a situação e evitar um resultado muito pior, mas acho que ficou oportunista e desleixado.”

O contrato revisado incluiu duas proteções centrais: proibição de vigilância doméstica em massa e exigência de responsabilidade humana sobre o uso da força, incluindo armas autônomas. O que a nova versão não incluiu — e que a Anthropic havia mantido como linha vermelha intransponível — foi uma vedação ao desenvolvimento de sistemas de armamento autônomo baseados nos modelos da empresa

Histórico que antecede a crise

Esta não é a primeira vez que a OpenAI enfrenta protestos por conta de sua relação com o setor militar. Em 10 de janeiro de 2024, a OpenAI removeu de suas políticas a proibição explícita de uso “para fins militares e de guerra”. A mudança, revelada pelo The Intercept dois dias depois, manteve vedações contra “desenvolver armas” e “conduzir vigilância”, mas eliminou o termo “militares” como categoria bloqueada — abrindo espaço para contratos com agências de defesa como o DARPA. Em fevereiro daquele ano, manifestantes bloquearam a entrada da sede em São Francisco em protesto direto contra essa alteração.

Funcionários assinam carta conjunta

A resistência mais organizada veio de dentro das empresas. Uma petição intitulada “We Will Not Be Divided” reuniu mais de 220 funcionários verificados do Google e da OpenAI, 176 e 47, respectivamente, exigindo que suas empresas recusassem fornecer ao Pentágono ferramentas de vigilância em massa e sistemas de armas sem supervisão humana

“Eles estão tentando dividir cada empresa com o medo de que a outra ceda. Essa estratégia só funciona se nenhum de nós souber onde o outro está”, diz o texto da petição. O documento também alerta que o Departamento de Guerra estuda invocar o Defense Production Act para obrigar a Anthropic a adaptar seus modelos às demandas militares, o que configuraria, na prática, uma intervenção federal numa empresa privada de tecnologia.

Leia mais

Variedades
STJ prorroga sindicância sobre acusação contra ministro Marco Buzzi
Variedades
Declaração de Jamie Lee Curtis aumenta rumores sobre fim de The Bear
Sorocaba
Oficina de Minilivro é atração gratuita na Biblioteca Infantil Municipal na próxima quarta-feira (11)
Variedades
Justiça manda prender goleiro Bruno após ele descumprir condicional
Variedades
A “Pequena Alemanha” preserva 3 idiomas oficiais e culinária típica da Pomerânia no Brasil
Sorocaba
Espaço dos Barganheiros terá Ônibus Rosa em ação especial alusiva ao Dia Internacional da Mulher

Mais lidas hoje