Non solo droni: così l’intelligenza artificiale sta riscrivendo le gerarchie del  potere militare  

SOGNI DI FARE IL FOTOREPORTER? FALLO CON NOI

Gli Stati Uniti sono in testa a livello strategico, industriale e narrativo. L’Ucraina rappresenta un  laboratorio operativo senza precedenti, mentre la Cina continua a crescere con un approccio meno  visibile ma pragmatico. Stiamo parlando di Ia usata nella difesa. La sua presenza è reale ma non  nella forma “onnipotente” spesso raccontata. Dalla logistica alla cybersicurezza, l’Ia sta riscrivendo le gerarchie del potere militare. Ma la  vera partita la si sta giocando nei cieli: nel 2025, più di cento Paesi utilizzavano droni militari, un  mercato che si stima supererà i 58 miliardi di dollari entro il 2030.  

È importante come la polvere da sparo“, ha dichiaro l’ex ufficiale Patrick Shepherd, in un  articolo della CNN. La ragione più immediata è economica, ma non è la sola. Ne abbiamo parlato  con Emanuele Bezzecchi, esperto di Ia nel mondo della difesa.  

Il potere militare non è più esclusivo  

L’evoluzione tecnologica dei conflitti contemporanei ha evidenziato un divario economico  impressionante tra i sistemi d’arma tradizionali e le nuove tecnologie autonome. Un F-16 costa tra i  30 e i 70 milioni di dollari; un drone first-person view costa tra i 300 e i duemila dollari. Allo stesso  prezzo di un missile balistico, è possibile armarsi di più di 20 droni kamikaze Shahed, che costano  tra i 20 e 50 mila dollari. 

I droni, oltre al risparmio, offrono persistenza in volo, precisione superiore all’artiglieria e una  semplicità d’uso senza precedenti.  

“Oggi i droni, o addirittura pezzi di software, dati e comunicazioni, possono fare la differenza sul  campo di battaglia”, spiega Emanuele Bezzecchi. “Il potere di minaccia non è più concentrato  solo in grandi assetti complessi, ma è distribuito, modulare e scalabile”. Questo, secondo l’esperto,  avrebbe “un effetto dirompente perché abbassa drasticamente le barriere all’ingresso nel  mondo della difesa, sia dal punto di vista tecnologico sia economico”.  

Quali sono i nuovi player oggi  

Ma il vero problema per gli incumbent, ovvero i grandi primer della difesa, è stare al passo con un  mondo in cui l’innovazione corre su tempi molto più rapidi. “Oggi esiste una quantità enorme di  capitali privati pronti a finanziare startup nel settore difesa. Stanno emergendo nuovi  protagonisti: Palantir, Anduril, Shield AI, Helsing, Destinus, insieme ad altre realtà focalizzate  su swarm, autonomia e software-defined defense. Sono, in un certo senso, i nuovi “influencer”  della difesa; chiamati così perché, a differenza dei primer, fanno della comunicazione social uno  dei primi assi di sviluppo commerciale e di recruitment. Sono aziende che parlano il linguaggio del  software, crescono velocemente e intercettano una quota sempre maggiore di contratti”.  

Uno degli ultimi stipulati è quello tra l’americana Palantir e l’esercito ucraino per creare Dataroom,  una piattaforma che permette di processare milioni di dati raccolti sul campo per supportare le  scelte dei comandanti. L’idea di addestrare sistemi di Ia su dati reali di conflitto è potente,  ma resta da capire quanto queste soluzioni siano realmente decisive sul piano operativo; quanto siano scalabili e quanto siano robuste nel tempo, contro contromisure e adattamento  dell’avversario”.

E i primi scricchiolii si intravedono nella recente decisione dell’Ucraina di interrompere ulteriori  ordini di droni da Helsing, dopo che i sistemi d’arma dell’azienda avrebbero riscontrato problemi  durante i test in prima linea. “È difficile valutare quanto delle promesse sia reale capacità operativa  e quanto sia invece comunicazione di marketing o aspettativa finanziaria”.  

È anche per questo che non è previsto che le grandi piattaforme scompaiano: “Continuano ad  avere ruoli insostituibili in termini di deterrenza strategica, proiezione di potenza, comando e  controllo, persistenza e capacità multi-missione. Diventano sempre più hub all’interno di un  ecosistema fatto di droni, sensori distribuiti, effettori a basso costo e sistemi software”.  

Come viene usata oggi l’Ia nella difesa  

Secondo Bezzecchi “esistono numerosi dimostratori tecnologici e prototipi avanzati che coprono  diverse funzioni. Sistemi di computer vision in grado di riconoscere e classificare  automaticamente bersagli e ostacoli a partire da sensori elettro-ottici o infrarossi; algoritmi che  consentono di pianificare e ripianificare dinamicamente la rotta di un mezzo in funzione dello stato  del veicolo. E tecniche che permettono di stimare posizione e movimento del mezzo usando  esclusivamente sensori di visione e inerziali, senza fare affidamento sul GPS”.

Tutte queste applicazioni, però, sono ancora prevalentemente in fase prototipale. Il motivo è  soprattutto processuale e normativo. “Non esiste ancora un percorso di certificazione maturo  per sistemi di Ia complessi”. E qui entriamo nel cuore del problema, la sicurezza.  

Meno potenti ma più affidabili

L’adozione dell’Ia in ambito militare è frenata da vincoli tecnologici e normativi molto più severi  rispetto al mondo civile: “Se uno smartphone si surriscalda perdi una chiamata, ma se accade a un  sistema critico in volo le conseguenze sono catastrofiche”.  

Per questo la difesa si affida ai DAL, protocolli di sicurezza estremi. Per l’esperto, “Il livello  massimo, il DAL-A, ammette un solo guasto critico ogni miliardo di ore di volo. Poiché le  attuali GPU (Graphics Processing Unit, ndr) non soddisfano questi standard, la difesa si sta  orientando verso modelli di AI più piccoli, capaci di girare su CPU (Central Processing Unit, ndr) o  FPGA (Field Programmable Gate Array, ndr). Questi chip hanno spesso una potenza di calcolo  inferiore a quella di uno smartphone di ultima generazione, ma garantiscono un’affidabilità  totale in condizioni estreme. Il limite principale rimane normativo: mentre l’hardware può  raggiungere la massima certificazione, le attuali regole EASA limitano i software AI al livello DAL C, molto meno rigido del DAL-A”. Per integrare l’intelligenza artificiale nei sistemi critici, il mondo  militare dovrà quindi “accettare un compromesso senza precedenti con il calcolo del rischio”. 

È questo il motivo per cui il settore non può seguire la velocità delle startup: “I vincoli di  sicurezza e certificazione sono inevitabili”. Per stare al passo con cicli di innovazione che, secondo  il ministro della Difesa inglese, cambiano ogni sei settimane, la strategia deve essere duplice:  “mantenere il rigore assoluto per i sistemi critici (sicurezza e volo), creando al contempo spazi agili  per testare rapidamente software e algoritmi”. Senza un adattamento dei modelli decisionali a un  mondo che evolve in settimane anziché in decenni, il rischio reale non è l’incapacità di innovare,  ma la lentezza nel farlo. “Una differenza che, oggi, pesa quanto la tecnologia stessa”. 

Chi mangia la fetta più grossa della torta  

Mentre l’amministrazione Trump ha lanciato la “AI Acceleration Strategy” per la dominanza  americana, l’esperto invita a non sottovalutare Pechino. “Gli Stati Uniti restano senza dubbio il  Paese più avanzato ma è importante distinguere leadership dichiarata da capacità  dimostrata sul campo. Il racconto dominante è molto occidente-centrico, ma la Cina ha  dimostrato più volte di non essere affatto indietro”.  

Anzi, due recenti articoli di Reuters e del New York Times hanno evidenziato come gli Stati Uniti  siano in ritardo rispetto al Paese asiatico nello sviluppo di droni marittimi e aerei. “Un parallelo  utile è quello della guida autonoma: in Occidente si è parlato per anni di leadership di Tesla e  Waymo, ma oggi in Cina i taxi autonomi esistono davvero, sono diffusi e operativi su larga scala.  Questo suggerisce che la distanza tra chi racconta l’innovazione e chi la implementa sul territorio  può essere significativa. Come spesso accade, la vera misura del vantaggio tecnologico non sarà  nei white paper o negli annunci, ma nella capacità di far funzionare l’AI in scenari reali, complessi  e ostili”.  

Come si posizionano l’Europa e l’Italia  

In Europa, e in Italia in particolare, secondo Bezzecchi il know-how tecnologico non manca  affatto. “Esistono grandi player industriali di primissimo livello affiancati da un ecosistema  nascente di startup molto interessanti. Il vero problema dell’Europa è strutturale. Resta un  insieme di Stati relativamente piccoli e frammentati. Ciò rende difficile competere con Paesi  che possono permettersi una visione strategica unitaria, grandi volumi, cicli decisionali rapidi e una  stretta integrazione tra industria, forze armate e politica. Il risultato è che in Europa sviluppiamo  ottime tecnologie, ma facciamo fatica a scalarle, industrializzarle rapidamente e portarle sul  campo con la velocità richiesta dagli scenari moderni”. La corsa tecnologica comporta dei rischi e  “se l’Europa è quella che ne corre meno in assoluto, la Cina è quella che prova, nonostante gli  errori, e poi corregge”.  

L’Ia per prevedere la guerra  

L’AI non serve solo a reagire, ma a prevedere. Organizzazioni internazionali usano già il modello  VIEWS per stimare l’escalation dei conflitti. Per Bezzecchi, però, “l’algoritmo non vede il futuro, ma  offre stime probabilistiche basate su pattern storici. Se usati bene, questi modelli spostano la  pianificazione dalla reazione alla preparazione logistica e medica”.  

Esiste però il rischio che queste previsioni accelerino l’escalation di conflitto che cercavano di  prevenire. “Se un modello segnala una crisi e tu sposti assetti in modo aggressivo, l’altra parte  reagisce. La previsione ‘diventa vera’ perché hai agito su di essa. L’AI può migliorare la prontezza  operativa, ma la differenza la fa la governance”.  

In questo limbo tra laboratorio e campo di battaglia si inserisce la buzzword del momento: il digital  twin. “Si tratta di un modello digitale iper-realistico capace di replicare non solo la forma, ma  anche il comportamento fisico e logico di un mezzo per prevedere guasti e simulare scenari  pericolosi. Tuttavia i veri gemelli digitali oggi non sono esattamente come ce li immaginiamo.  Esistono simulazioni avanzate e banchi prova virtuali ma, sebbene siano strumenti importantissimi  per l’addestramento, quando se ne parla come di una soluzione già pronta, si sta vendendo una  promessa più che una realtà”. 

I droni killer hanno ancora bisogno dell’uomo  

Il vero cambio di passo è nei droni kamikaze, come quelli a cui sta lavorando l’ucraina X-Drone,  che colpirebbero in autonomia un bersaglio fisso. Anche Helsing ed Anduril promettono tecnologie  simili, ma la maturità reale è, secondo l’esperto, inferiore a quanto raccontato. “La maggior parte  dei droni sono artigianali, guidati via fibra ottica per resistere al jamming. Le regole di ingaggio  sono pre-programmate e l’autonomia riguarda l’esecuzione, non l’intenzione. I sistemi basati  su machine learning non ragionano per certezze, ma per probabilità. Ed è estremamente difficile  garantire che una decisione sia corretta, ripetibile e sicura rispetto a comportamenti non previsti”.  

La decisione letale rimane quindi in capo all’uomo che “finché rimarrà formalmente nel loop  decisionale, sarà anche chiara la catena di responsabilità. Nel momento in cui l’AI diventasse  soggetto decisionale pienamente autonomo, l’intero impianto giuridico entrerebbe in crisi”.  

Lo stesso avviene anche quando si parla di chatbot come Grok, usato come supporto dal  Pentagono. “Il Pentagono o il lavoro di Mistral AI in Francia dimostrano che l’AI generativa può  supportare l’analisi di dati e documenti, ma non la decisione strategica. Un LLM non ha  consapevolezza del contesto e può ‘allucinare’. Non è certificabile per funzioni critiche. Il suo  utilizzo resta confinato al decision support non vincolante e alla gestione della conoscenza”.  

Questa complessità tecnologica ci riporta alla radice del problema, l’etica. Per Bezzecchi “l’AI non  decide se essere buona o cattiva, spetta a noi farlo. Può essere usata in guerra, ma può anche  aiutare a prevenire conflitti, proteggere persone o aiutare a prendere decisioni più intelligenti. È la  storia di tutte le tecnologie. La differenza la fanno le regole che gli esseri umani decidono di darsi”.