Anthropic, uno dei principali laboratori di intelligenza artificiale, ha negato con veemenza le accuse secondo cui potrebbe intenzionalmente interrompere o disabilitare il suo modello di intelligenza artificiale Claude se utilizzato per uso militare dal governo degli Stati Uniti. La disputa arriva mentre il Pentagono si muove per vietare la tecnologia di Anthropic a causa delle preoccupazioni su potenziali interferenze nelle operazioni critiche.
Il nocciolo del conflitto
Il Dipartimento della Difesa (DoD) ha etichettato Anthropic come un “rischio per la catena di fornitura”, impedendone di fatto l’uso, anche tramite appaltatori. Questa azione nasce dal timore che Anthropic possa bloccare unilateralmente l’accesso a Claude, alterarne la funzionalità o inviare aggiornamenti dannosi se non fosse d’accordo con determinate applicazioni militari. Il Dipartimento della Difesa sostiene che tali azioni potrebbero mettere a repentaglio le operazioni attive.
Il capo del settore pubblico di Anthropic, Thiyagu Ramasamy, afferma che la società non ha la capacità tecnica per sabotare la propria tecnologia una volta implementata. In una dichiarazione in tribunale, Ramasamy ha affermato che Anthropic “non ha l’accesso necessario per disabilitare la tecnologia o alterare il comportamento del modello prima o durante le operazioni in corso”. Ha sottolineato che non esiste una “backdoor” o un “kill switch” e che qualsiasi aggiornamento richiederebbe l’approvazione sia del governo che del fornitore di servizi cloud Amazon Web Services.
Battaglie legali e implicazioni finanziarie
Anthropic ha intentato due azioni legali contestando il divieto del Dipartimento della Difesa in quanto incostituzionale. La società ha chiesto un ordine di emergenza per revocare la decisione, ma le trattative si sono interrotte nonostante la volontà di Anthropic di garantire contrattualmente che non avrebbe posto il veto alle decisioni militari legali. Il Pentagono rimane scettico, affermando che sta “adottando misure aggiuntive per mitigare il rischio della catena di approvvigionamento” collaborando con i fornitori di servizi cloud per impedire cambiamenti unilaterali da parte di Anthropic.
Le conseguenze del divieto sono già evidenti, con i clienti che annullano gli accordi. Anthropic sostiene che la controversia potrebbe costare all’azienda miliardi di entrate. Il 24 marzo è prevista un’udienza in tribunale, durante la quale un giudice potrà pronunciarsi su una revoca temporanea del divieto.
Il contesto più ampio
Questo conflitto evidenzia la crescente tensione tra gli sviluppatori di intelligenza artificiale e gli interessi di sicurezza nazionale. Il Pentagono ha utilizzato Claude per analizzare dati, redigere promemoria e persino assistere nella generazione di piani di battaglia. La preoccupazione del governo non è infondata: altri laboratori di intelligenza artificiale, come OpenAI, inizialmente ne hanno vietato l’uso militare prima di consentirlo attraverso le partnership di Microsoft. Nel frattempo, aziende come Smack Technologies stanno già addestrando modelli esplicitamente per le operazioni sul campo di battaglia.
L’incidente sottolinea una domanda cruciale: in che misura le società private di intelligenza artificiale dovrebbero avere il controllo sulla tecnologia impiegata in contesti di sicurezza nazionale? Il dibattito si estende oltre l’antropologia, poiché il settore più ampio dell’intelligenza artificiale è alle prese con le implicazioni etiche e strategiche delle applicazioni militari.
In definitiva, la disputa tra Anthropic e il Pentagono serve da avvertimento sul fatto che l’integrazione dell’intelligenza artificiale nella guerra è irta di incertezze e rischi, richiedendo un’attenta considerazione sia delle capacità tecnologiche che dei potenziali conflitti di interessi.























