La spinta del governo degli Stati Uniti per integrare l’intelligenza artificiale nelle operazioni militari sta creando un duro dilemma per le società di intelligenza artificiale: dare priorità agli standard di sicurezza o assicurarsi lucrosi contratti di difesa. Questa tensione è arrivata al culmine di recente quando il Pentagono ha esaminato attentamente Anthropic, una delle principali società di intelligenza artificiale, per la sua riluttanza a partecipare pienamente a determinate “operazioni mortali”, mettendo potenzialmente a repentaglio un contratto da 200 milioni di dollari. Ciò segnala un messaggio chiaro ad altre società – OpenAI, xAI e Google – che attualmente lavorano con il Dipartimento della Difesa su progetti non classificati: è prevista la piena conformità se richiedono autorizzazioni di sicurezza di alto livello.
La posta in gioco è superiore ai profitti
La situazione non è semplicemente una questione di soldi. L’impegno di Anthropic per la sicurezza dell’intelligenza artificiale, una posizione rara nel settore, l’ha messa in contrasto con la politica dell’amministrazione di sviluppo illimitato dell’intelligenza artificiale militare. I rapporti suggeriscono che la società potrebbe anche essere etichettata come un “rischio della catena di fornitura” – una designazione solitamente riservata a entità legate a nazioni avversarie come la Cina. Ciò impedirebbe di fatto alle aziende del settore della difesa di utilizzare l’intelligenza artificiale di Anthropic, costringendole a cercare alternative con meno scrupoli etici.
Il nocciolo della questione è se il perseguimento della sicurezza nazionale giustifichi il compromesso degli stessi principi che molti sviluppatori di intelligenza artificiale affermano di sostenere. Il Pentagono non vuole sentir parlare di “esclusioni” o “distinzioni legali” quando si tratta di applicazioni letali. Come ha affermato senza mezzi termini un funzionario, le società di intelligenza artificiale devono impegnarsi a “fare tutto il necessario per vincere”. Ciò solleva una domanda inquietante: le richieste del governo per l’uso militare renderanno di per sé l’IA meno sicura?
Il paradosso della sicurezza e della guerra
Gli stessi leader dell’intelligenza artificiale riconoscono il potere senza precedenti della tecnologia. Molte aziende sono state fondate sulla premessa di raggiungere l’intelligenza generale artificiale (AGI) – superintelligenza – prevenendo al contempo danni diffusi. Elon Musk, un tempo sostenitore della regolamentazione dell’intelligenza artificiale, ha co-fondato OpenAI per paura che lo sviluppo incontrollato potesse essere catastrofico.
Anthropic si è distinta integrando profondamente i guardrail di sicurezza nei suoi modelli, con l’obiettivo di prevenire lo sfruttamento da parte di malintenzionati. Ciò è in linea con i principi etici articolati decenni fa da Isaac Asimov nelle sue leggi sulla robotica: l’intelligenza artificiale non dovrebbe danneggiare gli esseri umani. Tuttavia, l’insistenza del Pentagono sull’uso militare senza restrizioni mina proprio queste basi.
Una corsa agli armamenti inevitabile?
Gli Stati Uniti potrebbero sfruttare il vantaggio dell’intelligenza artificiale contro avversari come il Venezuela con relativa impunità, ma gli oppositori sofisticati svilupperanno inevitabilmente i propri sistemi di intelligenza artificiale per la sicurezza nazionale. Ciò innescherà una vera e propria corsa agli armamenti, con i governi che daranno priorità al dominio militare rispetto a considerazioni etiche. L’amministrazione sembra disposta a ridefinire i confini legali per giustificare pratiche discutibili, rendendo sacrificabili le aziende di intelligenza artificiale che insistono sugli standard di sicurezza.
Questa mentalità mina lo sforzo di creare un’IA sicura. Sviluppare versioni letali e non letali della stessa tecnologia è intrinsecamente contraddittorio. Le discussioni, un tempo serie, sugli organismi internazionali che regolano gli usi dannosi dell’intelligenza artificiale sono svanite, sostituite dalla triste realtà che il futuro della guerra è indissolubilmente legato all’intelligenza artificiale.
Le implicazioni a lungo termine sono agghiaccianti. Se le aziende e i governi dell’intelligenza artificiale non riescono a contenere il potenziale di violenza della tecnologia, il futuro dell’intelligenza artificiale stessa potrebbe diventare più aggressivo e imprevedibile. La domanda non è se l’intelligenza artificiale cambierà la guerra; è se la guerra corromperà l’intelligenza artificiale.
In definitiva, il dominio della tecnologia digitale sta rimodellando l’umanità in modi irrevocabili. Mentre i regimi politici possono sorgere e cadere, l’ascesa dell’intelligenza artificiale è una forza che sopravviverà anche ai leader più potenti. Il vero campo di battaglia ora non è solo tra nazioni, ma tra gli ideali di sicurezza e le esigenze di potere assoluto.























