O Departamento de Comércio dos Estados Unidos garantiu acesso privilegiado aos códigos e estruturas dos modelos de inteligência artificial mais avançados do mercado antes de chegarem ao público. Google, Microsoft e a xAI, de Elon Musk, aceitaram liberar seus sistemas para uma avaliação prévia conduzida pelo CAISI, o centro de padrões de IA do governo. Na prática, os maiores laboratórios de tecnologia do país agora submetem seus algoritmos a um crivo de Washington, um movimento que consolida o controle estatal sobre sistemas que ainda não foram lançados oficialmente.
O CAISI já realizou mais de 40 avaliações de modelos, incluindo tecnologias de última geração que permanecem sob sigilo industrial. Esse fluxo de inspeção voluntária fechou um ciclo que já contava com a participação da OpenAI e da Anthropic. Ambas as empresas mantinham parcerias desde 2024, mas renegociaram os termos para alinhar seus processos às diretrizes do AI Action Plan da administração Trump. Para o desenvolvedor que aguarda meses por uma liberação de acesso ou para o pesquisador de segurança, esse funil governamental determina o que é considerado seguro antes mesmo da primeira linha de código ser testada por usuários comuns.
O órgão responsável por esses testes opera dentro do NIST e nasceu em 2023 sob o nome de AI Safety Institute. Em junho passado, o governo Trump alterou o nome para CAISI. O secretário de Comércio, Howard Lutnick, descreveu a mudança como um afastamento de regulações que usavam a segurança nacional como ‘disfarce’. Embora o rótulo tenha mudado, a operação foca em identificar riscos de cibersegurança, biosegurança e o uso de IA na criação de armas químicas. Chris Fall dirige o centro após a queda de Collin Burns, ex-pesquisador da OpenAI e Anthropic, que permaneceu apenas quatro dias no cargo devido a questionamentos da Casa Branca sobre seus laços com o setor privado.
A Anthropic vive uma situação de tensão direta com outras alas da administração federal. Em março, o Pentágono classificou a empresa como um risco para a cadeia de suprimentos. O motivo foi a recusa da companhia em reduzir proteções éticas em torno de armas autônomas, uma postura que um juiz federal classificou como ‘orwelliana’. O secretário de Defesa, Pete Hegseth, e o presidente Trump desenharam um plano de seis meses para remover ferramentas da Anthropic de contratos do governo. Enquanto a empresa colabora com o CAISI para definir protocolos de avaliação, enfrenta processos de expulsão de acordos militares por não tornar seus modelos mais ‘moldáveis’ aos interesses de defesa.
A fiscalização pode deixar de ser opcional em breve. Relatos internos indicam que a administração Trump estuda uma ordem executiva para tornar obrigatória a revisão governamental pré-lançamento. O modelo Mythos, da Anthropic, foi citado como um dos gatilhos para esse endurecimento regulatório. Se aprovada, a medida criará uma camada compulsória de checagem que coexistirá com os atuais acordos voluntários.
O AI Action Plan entrega ao CAISI a missão de liderar o que chama de ‘ecossistema de avaliações de IA’. A meta é que o órgão oriente reguladores na aplicação de leis já existentes sobre inteligência artificial. Sem uma base legal definitiva aprovada pelos congressistas, o centro opera sob decretos e acordos bilaterais, aguardando que projetos de lei formalizem sua existência.



