Il governo degli Stati Uniti ha formalmente designato Anthropic, una delle principali società di intelligenza artificiale, come un rischio “inaccettabile” per la sicurezza nazionale. Questa decisione nasce dalla preoccupazione che l’azienda possa potenzialmente manipolare la sua tecnologia AI – incluso il popolare chatbot Claude – per dare priorità ai propri interessi rispetto agli obiettivi strategici degli Stati Uniti, in particolare in uno scenario di conflitto.
Preoccupazioni del governo per la manipolazione dell’intelligenza artificiale
In un documento giudiziario di 40 pagine presentato al tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California, gli avvocati governativi hanno sostenuto che i sistemi di intelligenza artificiale sono “fortemente vulnerabili alla manipolazione”. Concedere l’accesso antropico alle infrastrutture del Dipartimento della Difesa (DoD), sostengono, introdurrebbe vulnerabilità inaccettabili nelle catene di approvvigionamento militare. La documentazione ha evidenziato che il controllo di Anthropic sulla sua tecnologia crea il rischio che possa disabilitare o alterare i sistemi in modi dannosi per le capacità di guerra degli Stati Uniti.
La risposta di Anthropic e la battaglia legale in corso
Anthropic ha pubblicamente replicato a queste affermazioni, citando le dichiarazioni dell’amministratore delegato Dario Amodei, il quale ha sottolineato che le decisioni militari sull’utilizzo dell’intelligenza artificiale spettano alle forze armate, non alla sua azienda. Amodei ha dichiarato che Anthropic non si è mai opposta né ha mai limitato le operazioni militari che coinvolgono la sua tecnologia.
Tuttavia, la posizione del governo ha innescato un’azione legale. Il 9 marzo, Anthropic ha intentato due cause legali contestando la recente designazione dell’azienda da parte del Segretario alla Difesa Pete Hegseth come “rischio nella catena di fornitura”: una presso il tribunale distrettuale della California e un’altra presso la Corte d’appello degli Stati Uniti per il circuito del Distretto di Columbia.
Perché è importante: il contesto più ampio
Questa controversia sottolinea una crescente tensione tra il rapido sviluppo dell’intelligenza artificiale e considerazioni di sicurezza nazionale. I governi di tutto il mondo stanno esaminando sempre più attentamente le società di intelligenza artificiale, in particolare quelle che hanno accesso a sistemi militari o governativi sensibili. Il caso evidenzia i rischi intrinseci di fare affidamento su infrastrutture di intelligenza artificiale controllate privatamente nelle applicazioni critiche di difesa.
La mossa del governo degli Stati Uniti segnala una tendenza più ampia verso una supervisione più rigorosa delle catene di fornitura dell’intelligenza artificiale, portando potenzialmente a normative più rigorose per le aziende di intelligenza artificiale che operano nell’ambito della sicurezza nazionale. L’esito delle sfide legali di Anthropic costituirà probabilmente un precedente per il modo in cui i governi gestiranno i rischi legati all’IA in futuro.
La situazione è ulteriormente complicata dal fatto che il governo usa il termine “Dipartimento della Guerra” invece di “Dipartimento della Difesa”, una preferenza dell’amministrazione Trump, aggiungendo un altro livello di contesto politico alla disputa.
In definitiva, la valutazione da parte del governo degli Stati Uniti dell’Anthropic come rischio per la sicurezza nazionale rappresenta un momento critico nel rapporto in evoluzione tra la tecnologia dell’intelligenza artificiale e le strategie di difesa.























