O governo dos EUA designou formalmente a Anthropic, uma empresa líder em inteligência artificial, como um risco “inaceitável” para a segurança nacional. Esta decisão decorre de preocupações de que a empresa possa potencialmente manipular a sua tecnologia de IA – incluindo o seu popular chatbot Claude – para dar prioridade aos seus próprios interesses sobre os objectivos estratégicos dos EUA, particularmente num cenário de conflito.

Preocupações do governo com a manipulação de IA

Num processo judicial de 40 páginas apresentado ao Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, os advogados do governo argumentaram que os sistemas de IA são “extremamente vulneráveis à manipulação”. A concessão de acesso antrópico à infra-estrutura do Departamento de Defesa (DoD), afirmam, introduziria vulnerabilidades inaceitáveis ​​nas cadeias de abastecimento militar. O processo destacou que o controle da Antrópico sobre sua tecnologia cria o risco de desabilitar ou alterar sistemas de maneira prejudicial às capacidades de combate dos EUA.

Resposta da Anthropic e batalha legal contínua

A Anthropic rebateu publicamente essas afirmações, citando declarações do CEO Dario Amodei, que enfatizou que as decisões militares sobre o uso da IA cabem às forças armadas, não à sua empresa. Amodei afirmou que a Anthropic nunca se opôs ou limitou as operações militares envolvendo sua tecnologia.

No entanto, a posição do governo desencadeou ações legais. Em 9 de março, a Anthropic entrou com duas ações judiciais contestando a recente designação da empresa pelo secretário de Defesa Pete Hegseth como um “risco da cadeia de suprimentos” – uma no tribunal distrital da Califórnia e outra no Tribunal de Apelações dos EUA para o Circuito do Distrito de Columbia.

Por que isso é importante: o contexto mais amplo

Esta disputa sublinha uma tensão crescente entre o rápido desenvolvimento da IA e as considerações de segurança nacional. Os governos em todo o mundo estão a examinar cada vez mais as empresas de IA, especialmente aquelas com acesso a sistemas militares ou governamentais sensíveis. O caso destaca os riscos inerentes à dependência de infraestruturas de IA controladas de forma privada em aplicações críticas de defesa.

A medida do governo dos EUA sinaliza uma tendência mais ampla para uma supervisão mais rigorosa das cadeias de abastecimento de IA, conduzindo potencialmente a regulamentações mais rigorosas para as empresas de IA que operam em domínios de segurança nacional. O resultado dos desafios legais da Antrópica provavelmente estabelecerá um precedente sobre como os governos gerenciam os riscos de IA no futuro.

A situação é ainda mais complicada pelo facto de o governo utilizar o termo “Departamento de Guerra” em vez de “Departamento de Defesa”, uma preferência da administração Trump, acrescentando outra camada de contexto político à disputa.

Em última análise, a avaliação do governo dos EUA do Antrópico como um risco para a segurança nacional representa um momento crítico na relação em evolução entre a tecnologia de IA e as estratégias de defesa.