O Departamento de Defesa dos EUA (DoD) está sob ataque por supostamente punir a Anthropic, uma empresa de inteligência artificial, depois de tentar restringir o uso militar de suas ferramentas de IA. Uma juíza distrital dos EUA, Rita Lin, expressou preocupação durante uma audiência na terça-feira de que as ações do DoD pareciam ser uma “tentativa de paralisar” a Anthropic, potencialmente violando os direitos da Primeira Emenda da empresa.
Disputa sobre implantação militar de IA
A Anthropic entrou com dois processos federais, alegando que o DoD retaliou contra eles, designando a empresa como um risco de segurança depois de pressionar por limitações sobre como sua IA poderia ser usada pelos militares. Esta designação torna efetivamente mais difícil para a Anthropic fazer negócios com empreiteiros governamentais, mesmo aqueles que trabalham em projetos não relacionados à defesa.
O DoD, agora referindo-se a si mesmo como Departamento de Guerra (DoW), argumenta que as suas ações foram tomadas depois de determinar que as ferramentas de IA da Antrópica já não eram confiáveis para funcionar de forma fiável durante operações críticas. No entanto, o Juiz Lin questionou se as medidas punitivas – uma designação normalmente reservada a adversários estrangeiros e intervenientes hostis – eram proporcionais às preocupações declaradas em matéria de segurança nacional.
Batalha jurídica e escrutínio público
A Anthropic está buscando uma liminar para suspender a designação de segurança, na esperança de tranquilizar os clientes que estão hesitantes em continuar trabalhando com a empresa nas condições atuais. A decisão do juiz Lin sobre esta liminar é esperada dentro de alguns dias.
A disputa acendeu um debate mais amplo sobre a utilização crescente da IA pelas forças armadas e se as empresas tecnológicas deveriam submeter-se ao governo na determinação da forma como as suas tecnologias são implementadas. As ações do DoD levantam questões sobre o equilíbrio entre a segurança nacional e a autonomia corporativa na era do rápido avanço da IA.
Autoridade questionável e escalonamento
Durante a audiência, um advogado da administração Trump admitiu que o secretário Pete Hegseth não tinha autoridade legal para proibir empreiteiros militares de usarem o Antrópico para trabalhos não pertencentes ao DoD, apesar de Hegseth ter postado isso no X (antigo Twitter) no mês passado. Esta admissão alimenta ainda mais suspeitas de que as ações do DoD foram motivadas por retaliação e não por preocupações legítimas de segurança.
O Pentágono afirma estar a abandonar as tecnologias da Antrópico, com planos para substituí-las por alternativas do Google, OpenAI e xAI, ao mesmo tempo que implementa medidas para evitar que a Antrópico mexa nos seus modelos de IA durante a mudança. A empresa contesta esta afirmação, afirmando que não pode atualizar os seus modelos sem a permissão do Pentágono.
As apostas
O caso destaca a complexa relação entre empresas privadas de tecnologia e agências governamentais no desenvolvimento e implantação de IA. Se a Antrópico tiver sucesso no seu desafio legal, poderá estabelecer um precedente sobre a forma como o governo trata as empresas de IA que resistem às aplicações militares das suas tecnologias. Uma decisão do tribunal federal de apelações em Washington, DC, também é esperada em breve, potencialmente esclarecendo ainda mais os limites legais deste conflito.
A situação sublinha que à medida que a IA se torna mais integrada na segurança nacional, a questão da influência corporativa e do alcance do governo só se tornará mais crítica.























