L’Intelligenza Artificiale ha raggiunto e superato nell’arco di poche ore il suo “momento Oppenheimer”, quello in cui una nuova tecnologia diventa così dirompente da cessare di essere un prodotto e diventare strumento prioritario per i governi, soprattutto in campo militare. Segue una rapida sintesi dell’apocalittica telenovela.

Il Pentagono chiede l’eliminazione dei paletti etici di Anthropic per poter usare la loro IA senza limitazioni in campo militare. L’azienda si rifiuta di farlo, tenendo fede al proprio codice etico. Il Pentagono classifica Anthropic come realtà “Rischio per la sicurezza nazionale nella catena di approvvigionamento”, definendo la scelta come la volontà di sottrarre il potere di veto nelle scelte militari dal Governo statunitense. Poche ore dopo, OpenAI si fa avanti con il Pentagono per prendere il posto di Anthropic.

Le richieste del Pentagono

Il governo degli Stati Uniti, attraverso il Dipartimento della Difesa (rinominato Dipartimento della Guerra sotto l’amministrazione Trump), ha presentato ad Anthropic una richiesta formale e ultimativa riguardante l’uso dei suoi modelli di intelligenza artificiale, in particolare Claude. La richiesta centrale del Segretario della Difesa Pete Hegseth è che Anthropic consenta l’uso senza restrizioni dei suoi modelli per “tutti gli scopi legali”. Due di questi campi rappresentano gli elementi più critici: rimuovere i blocchi di sicurezza alla sorveglianza di massa dei cittadini americani e lo sviluppo di armi completamente autonome (ovvero sistemi in grado di uccidere senza intervento umano). In gioco c’è la risoluzione di un contratto da 200 milioni di dollari con il governo e la classificazione dell’azienda come “rischio per la catena di approvvigionamento”, sorte capitata a realtà come Huawei o Kaspersky.

Il contrasto con l’approccio “Constitutional AI” di Anthropic

Le pretese del Pentagono si sono scontrate con l’approccio adottato da sempre dalla società di Dario Amodei, che ha “allenato” il suo Claude rispettando la “Constitutional AI”: “Un insieme di tecniche sviluppate dai ricercatori di Anthropic per allineare sistemi di Intelligenza Artificiale come me ai valori umani e renderci utili, innocui e onesti”, si legge sul sito. Anthropic è stata la prima tra i giganti dell’IA a collaborare con il Pentagono, anche in campi delicati e legati all’ambito militare: è stato impiegato nella difesa missilistica, per le reti classificate e in operazioni sul campo come la cattura di Maduro e il regime change in Venezuela.

La società si trovava quindi di fronte ad un dilemma. Opzione A, accontentare il Pentagono e rimuovere i limiti etici del proprio modello. Opzione B, rispettare il proprio codice etico e scontrarsi con il Dipartimento della Guerra USA.

Con una lettera pubblicata il 26 febbraio, Dario Amodei ha scelto l’Opzione B: “In un numero limitato di casi, riteniamo che l’IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono inoltre semplicemente al di là di ciò che la tecnologia odierna è in grado di fare in modo sicuro e affidabile. Due di questi casi d’uso non sono mai stati inclusi nei nostri contratti con il Dipartimento della Guerra, e riteniamo che non debbano esserlo nemmeno ora: sorveglianza di massa e armi completamente autonome. […] Le minacce non cambiano la nostra posizione: non possiamo, in coscienza, accettare le loro richieste”.

Una dichiarazione dirompente che condanna una società in rampa di lancio ad una serie di conseguenze pesantissime, che non sono tardate ad arrivare.

La condanna del Segretario della Guerra Pete Hegsteth e le parole di Trump

La scelta di una società relativamente al contratto di licenza del proprio prodotto, in quanto divergente rispetto alle richieste del Pentagono, viene quindi definita dal Segretario della Difesa/Guerra Hegseth come tentativo “di piegare le forze armate degli Stati Uniti alla loro volontà”, anteponendo “l’ideologia della Silicon Valley alle vite degli americani”. Non solo. “I Termini di Servizio di Anthropic non peseranno mai più della sicurezza, della prontezza operativa o delle vite dei soldati americani sul campo di battaglia. Il loro vero obiettivo è inequivocabile: conquistare un potere di veto sulle decisioni operative delle forze armate degli Stati Uniti. Questo è inaccettabile”.

Parole pesantissime, da punto di rottura totale con Anthropic, che da fornitore di servizi critici diventa rischio per la sicurezza nazionale. La posizione del Pentagono è chiara: se l’etica del modello di intelligenza artificiale compromette il suo utilizzo in situazioni emergenziali e borderline, allora è un servizio inaffidabile.

Il Presidente Donald Trump ha poi alzato ulteriormente i toni con un post su Truth: “THE UNITED STATES OF AMERICA WILL NEVER ALLOW A RADICAL LEFT, WOKE COMPANY TO DICTATE HOW OUR GREAT MILITARY FIGHTS AND WINS WARS!”.

Sul tavolo, anche Il Defense Production Act (DPA). Una legge del 1950 che conferisce al governo l’autorità di dare priorità ai propri ordini rispetto a quelli commerciali e di ordinare direttamente la produzione di beni industriali. Secondo alcuni esperti, il Pentagono intenderebbe usare questo potere per obbligare Anthropic a creare una versione specifica di Claude “su misura per i militari”, priva di restrizioni sulla sorveglianza e sulle armi autonome.

Il braccio di ferro potrebbe tramutarsi ora in una tesa battaglia legale, come annunciato dallo stesso Amodei con una nota.

Morta una IA se ne fa un’altra: Sam Altman (OpenAI) si fa avanti

Inizialmente, Altman ha preso le difese di Anthropic, inviando anche un messaggio interno ai dipendenti di OpenAI affermando che la disputa non riguardava solo Anthropic, ma l’intera industria dell’IA.

Nonostante le dichiarazioni di solidarietà, poche ore dopo l’ordine di Trump di cessare l’uso di Anthropic, Altman ha comunque annunciato su X che OpenAI aveva raggiunto un accordo con il Dipartimento della Guerra per implementare i propri modelli (come ChatGPT) nelle reti classificate militari. Accettando così la formula del “tutti gli usi leciti” (all lawful purposes) richiesta dal Pentagono: “Due dei nostri principi di sicurezza più importanti sono i divieti sulla sorveglianza di massa domestica e la responsabilità umana nell’uso della forza, incluso per i sistemi d’arma autonomi. Il Dipartimento della Guerra concorda con questi principi, li riflette nella legge e nella politica, e li abbiamo inseriti nel nostro accordo”.

Il “momento Oppenheimer” insomma è stato raggiunto e superato: i modelli di Intelligenza Artificiali creati dalla ricerca di società private sono diventati troppo importanti per non essere controllati dai governi. Nell’equilibrio delle forze che si determinerà nelle prossime settimane si gioca tutto il futuro di questa tecnologia.

Abbonati e diventa uno di noi

Se l’articolo che hai appena letto ti è piaciuto, domandati: se non l’avessi letto qui, avrei potuto leggerlo altrove? Se pensi che valga la pena di incoraggiarci e sostenerci, fallo ora.

Non sei abbonato o il tuo abbonamento non permette di utilizzare i commenti. Vai alla pagina degli abbonamenti per scegliere quello più adatto