O Departamento de Defesa dos EUA (DoD) está sob ataque por supostamente punir a Anthropic, uma empresa de inteligência artificial, depois de tentar restringir o uso militar de suas ferramentas de IA. Uma juíza distrital dos EUA, Rita Lin, expressou preocupação durante uma audiência na terça-feira de que as ações do DoD pareciam ser uma “tentativa de paralisar” a Anthropic, potencialmente violando os direitos da Primeira Emenda da empresa.

Disputa sobre implantação militar de IA

A Anthropic entrou com dois processos federais, alegando que o DoD retaliou contra eles, designando a empresa como um risco de segurança depois de pressionar por limitações sobre como sua IA poderia ser usada pelos militares. Esta designação torna efetivamente mais difícil para a Anthropic fazer negócios com empreiteiros governamentais, mesmo aqueles que trabalham em projetos não relacionados à defesa.

O DoD, agora referindo-se a si mesmo como Departamento de Guerra (DoW), argumenta que as suas ações foram tomadas depois de determinar que as ferramentas de IA da Antrópica já não eram confiáveis ​​para funcionar de forma fiável durante operações críticas. No entanto, o Juiz Lin questionou se as medidas punitivas – uma designação normalmente reservada a adversários estrangeiros e intervenientes hostis – eram proporcionais às preocupações declaradas em matéria de segurança nacional.

Batalha jurídica e escrutínio público

A Anthropic está buscando uma liminar para suspender a designação de segurança, na esperança de tranquilizar os clientes que estão hesitantes em continuar trabalhando com a empresa nas condições atuais. A decisão do juiz Lin sobre esta liminar é esperada dentro de alguns dias.

A disputa acendeu um debate mais amplo sobre a utilização crescente da IA ​​pelas forças armadas e se as empresas tecnológicas deveriam submeter-se ao governo na determinação da forma como as suas tecnologias são implementadas. As ações do DoD levantam questões sobre o equilíbrio entre a segurança nacional e a autonomia corporativa na era do rápido avanço da IA.

Autoridade questionável e escalonamento

Durante a audiência, um advogado da administração Trump admitiu que o secretário Pete Hegseth não tinha autoridade legal para proibir empreiteiros militares de usarem o Antrópico para trabalhos não pertencentes ao DoD, apesar de Hegseth ter postado isso no X (antigo Twitter) no mês passado. Esta admissão alimenta ainda mais suspeitas de que as ações do DoD foram motivadas por retaliação e não por preocupações legítimas de segurança.

O Pentágono afirma estar a abandonar as tecnologias da Antrópico, com planos para substituí-las por alternativas do Google, OpenAI e xAI, ao mesmo tempo que implementa medidas para evitar que a Antrópico mexa nos seus modelos de IA durante a mudança. A empresa contesta esta afirmação, afirmando que não pode atualizar os seus modelos sem a permissão do Pentágono.

As apostas

O caso destaca a complexa relação entre empresas privadas de tecnologia e agências governamentais no desenvolvimento e implantação de IA. Se a Antrópico tiver sucesso no seu desafio legal, poderá estabelecer um precedente sobre a forma como o governo trata as empresas de IA que resistem às aplicações militares das suas tecnologias. Uma decisão do tribunal federal de apelações em Washington, DC, também é esperada em breve, potencialmente esclarecendo ainda mais os limites legais deste conflito.

A situação sublinha que à medida que a IA se torna mais integrada na segurança nacional, a questão da influência corporativa e do alcance do governo só se tornará mais crítica.