L’X-62A VISTA (Variable In-flight Simulator Aircraft) è un cacciabombardiere F-16D profondamente modificato dall’ufficio “Skunk Works” di Lockheed-Martin per testare le capacità autonome dell’Intelligenza Artificiale (IA) di imitare le caratteristiche prestazionali di altri velivoli.
Ora, l’U.S. Air Force, presso la base aerea di Edwards (California), ha dato il via a un aggiornamento completo dei sistemi di missione dell’X-62A che prevede anche nuovi radar per poter ampliare la sua capacità di condurre test complessi di tecnologie a IA. L’aggiornamento più interessante nello sviluppo dell’X-62 è proprio rappresentato dal radar PhantomStrike di Raytheon, sussidiaria di RTX, che è un sistema di controllo del tiro compatto e raffreddato ad aria più piccolo, più leggero e con un consumo energetico inferiore rispetto ai moderni radar AESA (Active Electronically Scanned Array). Il sensore di nuova generazione sarà importante per testare le capacità autonome dell’IA tra cui l’integrazione, collaborazione di sistemi e il processo decisionale. Per quanto riguarda il PhantomStrike, Raytheon ha affermato che potrebbe essere integrato in velivoli senza equipaggio, aerei d’attacco leggeri, velivoli ad ala rotante e altre piattaforme, offrendo capacità radar superiori a quasi la metà del costo dei tipici radar di controllo del tiro.
Il progetto X-62A è gestito dall’U.S. Air Force insieme alla DARPA (Defense Advanced Research Projects Agency) ed è principalmente rivolto allo sviluppo e perfezionamento di velivoli da combattimento collaborativi (CCA – Collaborative Combat Aircraft), ovvero droni gregari che volano a fianco di caccia con equipaggio e svolgono missioni come il combattimento aria-aria.
Il programma ha fatto segnare dei notevoli progressi in tempi relativamente brevi: l’IA ha pilotato con successo l’X-62A per la prima volta durante 12 voli tra il primo e il 16 dicembre 2022 e altri 21 tra dicembre 2022 e settembre 2023, quando ha effettuato il primo combattimento aereo manovrato della storia contro un caccia pilotato. Il programma Air Combat Evolution (ACE) della DARPA è stato impegnato negli ultimi quattro anni per perfezionare il modo in cui le forze armate statunitensi e in particolare l’U.S. Air Force possono utilizzare l’IA per la guerra aerea e rafforzare la fiducia del personale nella sicurezza e nell’affidabilità della tecnologia autonoma in combattimento.
Finora, le forze armate USA hanno utilizzato sistemi autonomi solo per aspetti del volo prevedibili e basati su una serie di regole note, come il sistema automatico di prevenzione delle collisioni a terra (AGC) che impedisce a caccia come l’F-35 di schiantarsi. Ma il combattimento aereo manovrato – forse la forma di volo più pericolosa e imprevedibile che un pilota possa affrontare – rappresentava un insieme di competenze completamente diverse da apprendere per l’IA e i risultati raggiunti dimostrano l’alto livello raggiunto dalla ricerca statunitense in questo settore.
Il programma ACE è iniziato con programmi di intelligenza artificiale che controllavano simulazioni di F-16 durante combattimenti aerei al computer. Questi F-16 simulati hanno combattuto cinque volte contro piloti umani, raggiungendo risultati impressionanti, ma l’IA che li opera non era ancora addestrata a seguire le linee guida di sicurezza – comprese quelle che impediscono a un pilota di danneggiare il jet – e altri requisiti etici come le regole di addestramento al combattimento e le zone di ingaggio delle armi.
A bordo dell’X-62A, oltre a una nuova serie di sensori nata appositamente per essere montata sui futuri CCA, esistono diverse tipologie di IA per effettuare le diverse tipologie di missione, e da quello che sappiamo i test condotti sino a ora hanno sempre previsto la presenza di un pilota a bordo che si limitava ad attivare le diverse modalità di missione e quindi le diverse tipologie di IA.
Sebbene il programma ACE sia nato per i CCA, i suoi risvolti futuri appaiono evidenti: la seria possibilità che si sviluppino cacciabombardieri autonomi, capaci di eliminare il “fattore umano”. Del resto, come sappiamo, una delle discussioni sui requisiti di sistema dei caccia di sesta generazione (ancora praticamente del tutto ignoti) riguardava proprio la possibilità che fosse totalmente unmanned, ovvero non più una macchina comandata a distanza, ma una completamente autonoma capace di prendere le decisioni senza l’intervento umano.
Sebbene si possa pensare che questa sia materia di studio e di decisione per giuristi e filosofi per le implicazioni etiche che ne conseguono – e sarebbe giusto non solo pensarlo ma che ci fosse un consenso globale su questa tematica – in realtà sarà argomento di trattazione per ingegneri e militari semplicemente perché nel mondo non esistono valori etici condivisi da tutti. Quello che temiamo, e che apparirà sempre più evidente, è che una volta che non si riuscirà a stabilire una moratoria universale su certi sistemi d’arma autonomi, si penserà a sviluppare il meglio che la tecnologia a intelligenza artificiale possa offrire per non perdere irrimediabilmente – e tragicamente – terreno nei confronti di quei Paesi che non si fanno di questi scrupoli etici. Sebbene in questo momento i principali Paesi occidentali che stanno sviluppando questi particolari sistemi d’arma siano convinti che ci debba essere un certo livello di controllo umano, crediamo che quando ci si renderà conto che dei vantaggi sul campo di battaglia dati dal raggiungimento della totale autonomia decisionale – perseguito da Paesi come la Cina – anche essi faranno cadere questo limiti etico, aprendo irrimediabilmente un vaso di Pandora dalle conseguenze imprevedibili, e probabilmente catastrofiche.