Difesa /

Le tecnologie dirompenti emergenti (Edt – Emerging Disruptive Technologies), che spaziano dall’Intelligenza Artificiale (Ia), i big data, i sistemi autonomi, le armi ipersoniche, i computer quantistici e la robotica, sono diventate centrali nei settori della sicurezza e difesa.

Tali tecnologie vengono definite dirompenti in quanto rivoluzionano i rispettivi settori e pongono dei rischi legati proprio alla loro modernità e capacità di innovazione, rappresentando sostanzialmente un territorio inesplorato in cui ci si muove – più o meno rapidamente – praticamente senza limitazioni di carattere giuridico o etico.

Nel settore dei nuovi sistemi d’arma e in quello delle armi convenzionali, l’applicazione di queste tecnologie sta aggravando la dinamica della corsa agli armamenti complicando la definizione di metodologie di impiego e di difesa rispetto alle stesse.

Se, ad esempio, pensiamo ai droni – che siano loitering munitions utilizzate a sciami o quelli disponibili commercialmente – il loro sempre più vasto utilizzo sul campo di battaglia messo in pratica con nuovi concetti operativi pone non solo una minaccia dal punto di vista tattico, immediato, ma anche una di tipo strategico riguardante la possibilità di modificare la soglia di una maggiore escalation.

Infatti la possibilità di usare questi assetti, spesso caratterizzati da un certo grado di autonomia decisionale grazie all’Ia, senza il rischio di perdere vite umane, può facilmente portare alla considerazione di impiegarli per un primo colpo paralizzante dei sistemi di comando e controllo nemici. Lo stesso ragionamento si può applicare nel campo cyber: un attacco informatico massiccio ai sistemi avversari potrebbe annullare la capacità di difesa/attacco avversaria, mettendone a rischio la capacità di reazione e quindi facendo cadere i classici precetti della deterrenza, sia essa nucleare o convenzionale.

L’importanza della tecnologia in guerra è sempre proporzionale alle capacità del nemico: due avversari dotati di pari tecnologie, anche molto avanzate, cercheranno una stabilità strategica nell’attesa di raggiungere un ulteriore vantaggio tecnologico. Questo agire è stato evidente nel corso della storia: raggiunta la parità della capacità nucleare, Stati Uniti e Unione Sovietica hanno cercato accordi per bilanciare e limitare i rispettivi arsenali, ma prima di questo equilibrio di potenza nessuno dei due si è mai effettivamente mosso in questo senso. Oggi, in alcuni settori tecnologici dirompenti, stiamo osservando la stessa dinamica: nel campo della missilistica ipersonica nessuno sta pensando ancora a limitazioni di tali armamenti, mentre in quello dell’Intelligenza Artificiale applicata ai Laws (Lethal Autonomous Weapon Systems), il raggiungimento di un ordinamento giuridico internazionale che ne regoli l’impiego è ancora molto lontano da venire. In effetti, in quest’ambito, la volontà della maggior parte dei Paesi impegnati nella corsa all’Ia, è proprio quella di non avere limitazioni o messe al bando in ambito internazionale.

Al giorno d’oggi, oltre agli Uav, ai sistemi autonomi e ai sistemi ipersonici, l’intelligenza artificiale, la capacità di apprendimento automatico (Ml – Machine Learning), il calcolo quantistico, e il 5G/6G sono visti come più dirompenti.

Il pericolo di errori di calcolo e la mancanza di trasparenza dovrebbero favorire un controllo umano effettivo, ma come abbiamo detto non è sempre così: una parte del mondo (Cina e Russia) si sta muovendo verso l’autonomia decisionale spinta nella considerazione che un sistema dotato di intelligenza artificiale ad apprendimento automatico raggiungerà una “singolarità” sul campo di battaglia quando l’uomo non sarà più in grado di tenere il passo con la velocità operativa delle macchine, per cui il principio Human-in-the-loop diventerà uno svantaggio, quindi percorrendo una strada che potenzialmente è in contrasto con le norme internazionali esistenti e le leggi sui conflitti armati.

Inoltre la possibilità che i dati utilizzati dall’Ia vengano “avvelenati”, ovvero siano colposamente imprecisi, parziali o anche falsi, andando a generare conseguenze imprevedibili, è molto seria, quindi la stessa capacità di deterrenza che si affida anche a questi sistemi deve essere riconsiderata.

L’era digitale impone lo sviluppo di capacità di “deterrenza informatica” a causa delle possibilità elencate sin qui. Senza considerare che le applicazioni di intelligenza artificiale possono migliorare esponenzialmente la consapevolezza situazionale (situational awareness), l’interpretazione dei dati e, possibilmente, il processo decisionale.

L’Ia viene già applicata nel settore logistico rendendolo più efficace, riuscendo anche, tramite il calcolo predittivo, a determinare la vita utile di parti di un sistema d’arma, quindi predisporre in anticipo il suo ricambio ancora prima del guasto. Particolarmente interessante per la deterrenza è l’applicazione di Ia/Ml alla situational awareness: il Norad, il comando militare statunitense incaricato di sorvegliare e proteggere lo spazio aereo nordamericano, sta utilizzando il sistema Pathfinder per unire dati provenienti da sensori militari, commerciali e governativi e creare un quadro operativo comune in grado di velocizzare i tempi di risposta in caso di attacco, e potenzialmente, in un futuro non molto lontano, predirlo. Si capisce bene quindi come la capacità di allerta precoce (Early Warning) stia facendo un salto generazionale che potrebbe mettere un attore nelle condizioni non solo di reagire più velocemente, ma addirittura di effettuare un attacco preventivo qualora l’Intelligenza Artificiale stabilisca che l’avversario sia in procinto di colpire.

Esiste poi un secondo aspetto legato ad alcune tecnologie dirompenti che deve far ripensare alla capacità di deterrenza, ed è quello della “democratizzazione” della tecnologia, ovvero la maggiore accessibilità della stessa. La spinta evolutiva del settore informatico non è appannaggio esclusivamente degli enti governativi, ma anche in buona parte derivante da interessi commerciali quindi ad opera di enti privati, perfino a livello del singolo. Pertanto si determinano due condizioni: la prima è la fine dell’assioma “più grande uguale più potente”, in quanto anche Paesi minori, considerati potenze secondarie, possono facilmente acquisire alti livelli capacitivi nel settore informatico; la seconda è l’interdipendenza pubblico/privato che si fa più stretta, quindi quel Paese che ha un settore privato molto forte nell’attività di ricerca e sviluppo tenderà a prevalere.

Questa sinergia tra pubblico e privato ha ripercussioni su ogni aspetto delle Edt: dalle armi a energia diretta, che possono sfruttare ricerche private e che possono cambiare drasticamente l’equilibrio nella competizione tra grandi potenze, sino ai computer quantistici, la cui capacità di calcolo in ambito militare viene applicata ai sistemi di scoperta/comunicazione, passando per lo stesso 5G/6G che saranno “gli occhi e le orecchie” dei sistemi a Intelligenza Artificiale.

I rapidi progressi della tecnologia e dell’automazione continueranno a plasmare il futuro di conflitti e guerre. La possibilità che robot e altri sistemi autonomi si confrontino sul campo di battaglia eliminando il fattore umano anche per quanto riguarda le perdite, potrà facilmente spingere i pianificatori militari a impegnarsi in un’escalation progressiva e facilmente incontrollabile. Questa chiara possibilità di sfociare nell’anarchia rende imperativo trovare una regolamentazione internazionale accettata trasversalmente che regoli l’impiego di tecnologie dirompenti come i robot, i sistemi ipersonici o i Laws.

Dacci ancora un minuto del tuo tempo!

Se l’articolo che hai appena letto ti è piaciuto, domandati: se non l’avessi letto qui, avrei potuto leggerlo altrove? Se non ci fosse InsideOver, quante guerre dimenticate dai media rimarrebbero tali? Quante riflessioni sul mondo che ti circonda non potresti fare? Lavoriamo tutti i giorni per fornirti reportage e approfondimenti di qualità in maniera totalmente gratuita. Ma il tipo di giornalismo che facciamo è tutt’altro che “a buon mercato”. Se pensi che valga la pena di incoraggiarci e sostenerci, fallo ora.