A Anthropic, um importante laboratório de inteligência artificial, negou veementemente as alegações de que poderia interromper ou desativar intencionalmente o seu modelo Claude AI se fosse implantado para uso militar pelo governo dos EUA. A disputa surge no momento em que o Pentágono se move para proibir a tecnologia da Antrópico devido a preocupações sobre a potencial interferência em operações críticas.
O Núcleo do Conflito
O Departamento de Defesa (DoD) classificou o Anthropic como um “risco da cadeia de abastecimento”, impedindo efetivamente seu uso, inclusive por meio de empreiteiros. Esta ação decorre de temores de que a Anthropic possa bloquear unilateralmente o acesso ao Claude, alterar sua funcionalidade ou enviar atualizações prejudiciais caso discorde de certas aplicações militares. O DoD argumenta que tais ações poderiam comprometer as operações ativas.
O chefe do setor público da Anthropic, Thiyagu Ramasamy, afirma que a empresa não possui capacidade técnica para sabotar sua própria tecnologia, uma vez implantada. Em processo judicial, Ramasamy afirmou que a Anthropic “não tem o acesso necessário para desativar a tecnologia ou alterar o comportamento do modelo antes ou durante as operações em andamento”. Ele enfatizou que não existe “porta dos fundos” ou “interruptor de interrupção” e que qualquer atualização exigiria a aprovação do governo e do provedor de nuvem Amazon Web Services.
Batalhas legais e implicações financeiras
A Anthropic entrou com duas ações judiciais contestando a proibição do DoD como inconstitucional. A empresa buscou uma ordem de emergência para reverter a decisão, mas as negociações fracassaram apesar da disposição da Anthropic de garantir contratualmente que não vetaria a tomada de decisões militares legais. O Pentágono permanece cético, afirmando que está “tomando medidas adicionais para mitigar o risco da cadeia de abastecimento”, trabalhando com fornecedores de nuvem para evitar mudanças unilaterais por parte da Antrópico.
As consequências da proibição já são evidentes, com clientes cancelando negócios. A Antrópica afirma que a disputa pode custar bilhões em receitas à empresa. Uma audiência está marcada para 24 de março, onde um juiz poderá decidir sobre a reversão temporária da proibição.
O contexto mais amplo
Este conflito destaca a crescente tensão entre os criadores de IA e os interesses de segurança nacional. O Pentágono tem usado Claude para analisar dados, redigir memorandos e até ajudar na geração de planos de batalha. A preocupação do governo não é infundada: outros laboratórios de IA, como o OpenAI, proibiram inicialmente o uso militar antes de permiti-lo através de parcerias com a Microsoft. Enquanto isso, empresas como a Smack Technologies já estão treinando modelos explicitamente para operações no campo de batalha.
O incidente sublinha uma questão crítica: até que ponto devem as empresas privadas de IA ter controlo sobre a tecnologia implementada em contextos de segurança nacional? O debate estende-se para além da Antrópica, à medida que a indústria mais ampla da IA se debate com as implicações éticas e estratégicas das aplicações militares.
Em última análise, a disputa entre a Anthropic e o Pentágono serve como um aviso de que a integração da IA na guerra está repleta de incertezas e riscos, exigindo uma consideração cuidadosa tanto das capacidades tecnológicas como dos potenciais conflitos de interesse.























