Il Dipartimento della Difesa degli Stati Uniti (DoD) è sotto accusa per aver presumibilmente punito Anthropic, una società di intelligenza artificiale, dopo aver tentato di limitare l’uso militare dei suoi strumenti di intelligenza artificiale. Martedì, durante un’udienza in tribunale, un giudice distrettuale statunitense, Rita Lin, ha espresso preoccupazione secondo cui le azioni del Dipartimento della Difesa sembravano essere un “tentativo di paralizzare” Anthropic, violando potenzialmente i diritti del Primo Emendamento della società.

Controversia sullo schieramento militare dell’IA

Anthropic ha intentato due cause legali federali, sostenendo che il Dipartimento della Difesa ha reagito contro di loro designando la società un rischio per la sicurezza dopo aver spinto per limitazioni su come la sua intelligenza artificiale potrebbe essere utilizzata dai militari. Questa designazione rende di fatto più difficile per Anthropic fare affari con appaltatori governativi, anche quelli che lavorano su progetti non legati alla difesa.

Il Dipartimento della Difesa, che ora si autodefinisce Dipartimento della Guerra (DoW), sostiene che le sue azioni sono state intraprese dopo aver stabilito che non si poteva più fidarsi degli strumenti di intelligenza artificiale di Anthropic per funzionare in modo affidabile durante le operazioni critiche. Tuttavia, il giudice Lin ha messo in dubbio se le misure punitive – una designazione tipicamente riservata ad avversari stranieri e attori ostili – fossero proporzionali alle preoccupazioni dichiarate per la sicurezza nazionale.

Battaglia legale e controllo pubblico

Anthropic sta cercando un’ingiunzione temporanea per sospendere la designazione di sicurezza, sperando di rassicurare i clienti che esitano a continuare a lavorare con l’azienda nelle condizioni attuali. La decisione del giudice Lin su questa ingiunzione è attesa entro pochi giorni.

La disputa ha acceso un dibattito più ampio sul crescente utilizzo dell’intelligenza artificiale da parte delle forze armate e sulla questione se le aziende tecnologiche debbano rimettersi al governo nel determinare come le loro tecnologie verranno implementate. Le azioni del Dipartimento della Difesa sollevano interrogativi sull’equilibrio tra sicurezza nazionale e autonomia aziendale nell’era dell’intelligenza artificiale in rapido progresso.

Autorità discutibile ed escalation

Durante l’udienza, un avvocato dell’amministrazione Trump ha ammesso che il segretario Pete Hegseth non aveva l’autorità legale per vietare agli appaltatori militari di utilizzare Anthropic per lavori non DoD, nonostante Hegseth avesse pubblicato tanto su X (ex Twitter) il mese scorso. Questa ammissione alimenta ulteriormente il sospetto che le azioni del Dipartimento della Difesa siano state motivate da ritorsioni piuttosto che da legittime preoccupazioni per la sicurezza.

Il Pentagono afferma che si sta allontanando dalle tecnologie di Anthropic, con l’intenzione di sostituirle con alternative di Google, OpenAI e xAI, implementando al contempo misure per impedire ad Anthropic di manomettere i suoi modelli di intelligenza artificiale durante il cambiamento. L’azienda contesta questa affermazione, affermando che non può aggiornare i suoi modelli senza il permesso del Pentagono.

La posta in gioco

Il caso evidenzia la complessa relazione tra aziende tecnologiche private e agenzie governative nello sviluppo e nell’implementazione dell’intelligenza artificiale. Se Anthropic riuscisse nella sua sfida legale, potrebbe costituire un precedente per il modo in cui il governo tratta le aziende di intelligenza artificiale che si oppongono alle applicazioni militari delle loro tecnologie. A breve è prevista anche una sentenza della corte d’appello federale di Washington, DC, che potrebbe chiarire ulteriormente i confini legali di questo conflitto.

La situazione sottolinea che man mano che l’intelligenza artificiale diventa sempre più integrata nella sicurezza nazionale, la questione dell’influenza delle aziende e del potere di governo non farà altro che diventare più critica.