Il 4 dicembre scorso, OpenAI e Anduril Industries hanno annunciato una collaborazione strategica destinata a ridefinire il ruolo dell’intelligenza artificiale nella difesa. OpenAI, celebre per lo sviluppo di ChatGPT, un modello di IA divenuto mainstream, unirà le sue capacità con l’expertise militare di Anduril, un’azienda specializzata in droni, sistemi radar e missili intelligenti. L’obiettivo dichiarato è proteggere gli Stati Uniti dalle minacce rappresentate dai droni nemici, integrando i modelli avanzati di IA con hardware e software militari all’avanguardia.
A ottobre, OpenAI aveva già intrapreso una partnership con la DARPA, l’agenzia di ricerca del Dipartimento della Difesa, per sviluppare sistemi di sicurezza informatica per reti critiche. Con Anduril, l’azienda fa un passo ulteriore, dichiarando apertamente che la sua tecnologia sarà utilizzata direttamente sul campo di battaglia, con un programma strettamente focalizzato sulla difesa del personale e delle infrastrutture statunitensi.
La corsa globale alla supremazia tecnologica
La partnership tra OpenAI e Anduril si inserisce in una corsa globale per il dominio dell’intelligenza artificiale, vista dagli Stati Uniti come una sfida strategica per contenere la Cina. L’IA non è più considerata solo un’opportunità economica, ma una tecnologia cruciale per promuovere gli interessi nazionali. Tuttavia, questa corsa solleva questioni fondamentali sulla sicurezza, l’affidabilità e l’uso etico della tecnologia.
OpenAI, nata come organizzazione senza scopo di lucro con l’obiettivo di sviluppare un’IA sicura e accessibile, ha attraversato una trasformazione radicale. Negli ultimi anni si è trasformata in una società commerciale, cercando di bilanciare la sua missione originaria con le richieste di mercato. In passato, OpenAI aveva proibito l’uso dei suoi modelli per scopi militari o offensivi, ma questa politica è stata progressivamente allentata. Nel gennaio 2024, OpenAI ha ammesso di aver modificato le sue regole per consentire collaborazioni limitate con i militari, concentrandosi su ambiti come la sicurezza informatica e i soccorsi in caso di calamità.
La svolta di OpenAI: dalla ricerca etica alla difesa militare
Questa trasformazione si è accelerata negli ultimi mesi. Nel post pubblicato a ottobre 2024, OpenAI ha dichiarato che, se utilizzata “nelle mani giuste”, l’intelligenza artificiale può contribuire a proteggere vite umane, scoraggiare avversari e persino prevenire futuri conflitti. L’annuncio della collaborazione con Anduril segna il culmine di questa evoluzione, con OpenAI che abbraccia apertamente il lavoro nel settore della sicurezza nazionale.
Tuttavia, questa mossa rappresenta un netto allontanamento dalla posizione originale di OpenAI, che si era posizionata come un’organizzazione votata esclusivamente al progresso dell’umanità attraverso un uso responsabile dell’IA. Questa nuova direzione è stata criticata da chi teme che l’ingresso di OpenAI nel settore della difesa possa favorire l’uso della tecnologia per scopi offensivi, compromettendo i valori dichiarati dell’azienda.
Un contesto geopolitico favorevole al settore della difesa
La guerra in Ucraina ha cambiato il panorama tecnologico e geopolitico, rafforzando l’interesse delle aziende della Silicon Valley verso il settore della difesa. Dal 2021, gli investimenti in tecnologia militare sono aumentati significativamente, con le società di venture capital che hanno raddoppiato i fondi destinati a startup specializzate nella difesa, raggiungendo i 40 miliardi di dollari. Aziende come Anduril e Palantir hanno dimostrato che il Pentagono è disposto a investire massicciamente in nuove tecnologie, rendendo il settore militare un mercato sempre più allettante per le società tecnologiche.
Anche l’opposizione interna al coinvolgimento delle big tech nel settore militare si è attenuata. Nel 2018, i dipendenti di Google avevano protestato contro la collaborazione dell’azienda con il Pentagono nel progetto Maven, portando alla sospensione del contratto. Ma la guerra in Ucraina e la crescente rivalità con la Cina hanno ridotto le resistenze, aprendo la strada a collaborazioni più strette tra aziende tecnologiche e istituzioni militari.
Le implicazioni etiche e strategiche
L’ingresso di OpenAI nel settore della difesa solleva importanti interrogativi etici. In passato, l’azienda aveva affermato che lavorare con i militari avrebbe contraddetto la sua missione di garantire che i benefici dell’IA fossero ampiamente condivisi. Tuttavia, il post di ottobre 2024 ha cercato di conciliare questa posizione con la nuova realtà, affermando che collaborare con i paesi democratici per dominare la corsa all’IA non solo non contraddice la missione di OpenAI, ma la rafforza.
Ma questa giustificazione solleva una domanda cruciale: è possibile garantire che la tecnologia sviluppata per la difesa non venga utilizzata per scopi offensivi o in modi contrari ai principi di OpenAI? Quando un’azienda lavora con il Pentagono o con altri attori militari, perde inevitabilmente il controllo su come vengono utilizzati i suoi prodotti. Questa mancanza di controllo è un rischio evidente, soprattutto in un contesto geopolitico caratterizzato da tensioni crescenti.