A pressão do governo dos EUA para integrar a inteligência artificial nas operações militares está a criar um grande dilema para as empresas de IA: dar prioridade a padrões de segurança ou assegurar contratos de defesa lucrativos. Esta tensão atingiu o auge recentemente, quando o Pentágono examinou a Anthropic, uma empresa líder em IA, sobre a sua relutância em participar plenamente em certas “operações mortais”, potencialmente colocando em risco um contrato de 200 milhões de dólares. Isto sinaliza uma mensagem clara para outras empresas – OpenAI, xAI e Google – que atualmente trabalham com o Departamento de Defesa em projetos não confidenciais: espera-se total conformidade se procurarem autorizações de segurança de alto nível.
As apostas são maiores que os lucros
A situação não é apenas uma questão de dinheiro. O compromisso da Antrópico com a segurança da IA, uma postura rara na indústria, colocou-a em desacordo com a política do governo de desenvolvimento irrestrito de IA militar. Os relatórios sugerem que a empresa pode até ser rotulada de “risco da cadeia de abastecimento” – uma designação normalmente reservada a entidades ligadas a nações adversárias como a China. Isto impediria efetivamente as empresas de defesa de utilizarem a IA da Anthropic, forçando-as a procurar alternativas com menos escrúpulos éticos.
O cerne da questão é se a busca pela segurança nacional justifica comprometer os próprios princípios que muitos desenvolvedores de IA afirmam defender. O Pentágono não quer ouvir falar de “exclusões” ou “distinções legais” quando estão envolvidas aplicações letais. Como afirmou sem rodeios um funcionário, as empresas de IA devem comprometer-se a “fazer o que for preciso para vencer”. Isto levanta uma questão perturbadora: será que as exigências governamentais para a utilização militar tornarão a IA menos segura?
O paradoxo da segurança e da guerra
Os próprios líderes da IA reconhecem o poder sem precedentes da tecnologia. Muitas empresas foram fundadas com a premissa de alcançar inteligência artificial geral (AGI) – superinteligência – ao mesmo tempo que evitam danos generalizados. Elon Musk, que já foi um defensor da regulamentação da IA, foi cofundador da OpenAI por medo de que o desenvolvimento descontrolado fosse catastrófico.
A Anthropic se destacou por integrar profundamente proteções de segurança em seus modelos, com o objetivo de prevenir a exploração por atores mal-intencionados. Isto está alinhado com os princípios éticos articulados há décadas por Isaac Asimov nas suas leis da robótica: a IA não deve prejudicar os humanos. Contudo, a insistência do Pentágono no uso militar irrestrito mina esta mesma base.
Uma corrida armamentista inevitável?
Os EUA poderão exercer a sua vantagem de IA contra adversários como a Venezuela com relativa impunidade, mas adversários sofisticados desenvolverão inevitavelmente os seus próprios sistemas de IA de segurança nacional. Isto desencadeará uma corrida armamentista total, com os governos a dar prioridade ao domínio militar em detrimento de considerações éticas. A administração parece disposta a redefinir os limites legais para justificar práticas questionáveis, tornando dispensáveis as empresas de IA que insistem em padrões de segurança.
Esta mentalidade prejudica o esforço para criar uma IA segura. O desenvolvimento de versões letais e não letais da mesma tecnologia é inerentemente contraditório. As discussões outrora sérias sobre os organismos internacionais que regulam as utilizações prejudiciais da IA desapareceram, sendo substituídas pela sombria realidade de que o futuro da guerra está inextricavelmente ligado à IA.
As implicações a longo prazo são assustadoras. Se as empresas e os governos de IA não conseguirem conter o potencial de violência da tecnologia, o futuro da própria IA poderá tornar-se mais agressivo e imprevisível. A questão não é se a IA mudará a guerra; é se a guerra irá corromper a IA.
Em última análise, o domínio da tecnologia digital está a remodelar a humanidade de formas irrevogáveis. Embora os regimes políticos possam ascender e cair, a ascensão da IA é uma força que sobreviverá até mesmo aos líderes mais poderosos. O verdadeiro campo de batalha agora não é apenas entre as nações, mas entre os ideais de segurança e as exigências do poder absoluto.























