Diventa fotoreporter IMPARA DAI PROFESSIONISTI
Guerra /

Base aerea di Beale (California). Soprannominata “Recce Town” (“recce” è lo storpiamento di reconnaissance in gergo militare), perché da qui si levavano, e si levano ancora, i neri aerei spia dell’U.S. Air Force, l’aeronautica statunitense, come il tre volte supersonico (ed ora pensionato) Sr-71 o l’onnipresente Lockheed U-2. La base è anche nota per essere sede di uno dei radar di allarme precoce missilistico (Pave Paws) a lungo raggio della difesa statunitense, ma da mercoledì 16 dicembre annovera anche tra le sue peculiarità quella di aver ospitato il primo volo di un velivolo militare avente come “copilota” un sistema ad intelligenza artificiale (Ia).

Il Nono stormo da ricognizione ha infatti reso noto che l’aeronautica statunitense ha raggiunto l’obiettivo di utilizzare, per la prima volta nella storia, l’intelligenza artificiale come membro dell’equipaggio di un velivolo militare.

L’algoritmo di Ia, sviluppato dall‘U-2 Federal Laboratory dell’Air Combat Command, ha volato a bordo di un U-2 Dragon Lady, il celeberrimo aereo spia che solca i cieli del mondo sin dal 1955. Sviluppato da un piccolo team di ricercatori guidati dal maggiore Ray Tierney, l’algoritmo ha addestrato l’Ia ad eseguire specifici compiti in volo che altrimenti sarebbero stati realizzati dal pilota.

Il volo di prova è stato il culmine di anni di sforzi dell’U.S. Air Force per applicare questa particolare tecnologia alle operazioni militari di volo, nel quadro della competizione globale per i progressi nel campo dell’intelligenza artificiale che vedono il suo impiego sempre più diffuso a tutte le scale: dai piccoli droni ai missili da crociera passando per, appunto, i velivoli. Lo storico test di volo ha dimostrato che il pilota e l’Ia hanno collaborato con successo per condividere la suite di sensori dell’U-2 per raggiungere gli obiettivi della missione. Il risultato ottenuto è tanto più sorprendente se si considera che arriva a seguito di una “sfida” interna all’Usaf: due mesi fa il dottor Will Roper, assistente segretario dell’aeronautica per l’acquisizione, la tecnologia e la logistica aveva infatti sfidato il Federal Lab di Beale per l’ottenimento di un sistema Ia avanzato in grado di essere applicato su velivoli. Il laboratorio a quanto pare ha vinto questa sfida con un progetto di intelligenza artificiale in grado di essere applicato anche in altri ambiti oltre il velivolo U-2, per rafforzare ulteriormente le capacità di comando e controllo congiunto di tutti i domini sottesi dal Dipartimento della Difesa Usa.

“Questo è uno dei tanti modi in cui il Nono stormo da ricognizione sta mettendo a punto innovazioni per affrontare le sfide più difficili della Difesa. L’U-2 è la piattaforma perfetta per fare da apripista a questa tecnologia militare all’avanguardia, che può essere facilmente trasferita ad altri assetti dell’U.S. Air Force e altri partner. Sono estremamente orgoglioso dei risultati lungimiranti del maggiore Tierney e dell’intero team del Federal Lab. Stanno facendo la storia oggi!” sono state le parole del colonnello Heather Fox, comandante dello stormo.

Il futuro preconizzato dal generale Milley, capo di Stato maggiore della Difesa statunitense, sembra quindi che si stia avvicinando a grandi passi. Milley, in una recente conferenza online, ha infatti sottolineato, per analizzare l’attuale situazione del livello tecnologico tra Usa, Russia e Cina, che l’esclusione totale del fattore umano da un sistema d’arma potrebbe essere prossima ad avverarsi. “Non sto dicendo che succederà, ma è teoricamente possibile”, ha detto il generale, terminando il suo intervento affermando anche come “sia ragionevole pensare che a un certo punto tra la metà e la fine degli ’20 anni ’30, all’inizio ’40, forse verso la metà del secolo si inizierà a vedere un uso reale e significativo di queste tecnologie e combinazioni da parte delle società avanzate”.

La portata del risultato ottenuto a Beale è, in prospettiva, enorme: avere un sistema di intelligenza artificiale in grado di interfacciarsi con il pilota e con gli strumenti di bordo, quindi in grado di analizzare la situazione ambientale e reagire ai suoi cambiamenti in modo del tutto autonomo, spiana la strada a velivoli (e non solo) non pilotati in grado di eseguire una missione senza l’intervento umano. Già ora sono in produzione alcune tipologie di missili da crociera in grado di riconoscere i bersagli più paganti e colpirli: il missile americano antinave Long Range Anti Ship Missile (Agm-158C) è dotato di un seeker multi modale per l’aggancio semi autonomo dei bersagli, capace di distinguere le unità navali militari dal naviglio non combattente.

Anche le varie piattaforme unmanned, siano esse aeree, terrestri o navali, soprattutto quelle “micro”, utilizzano un certo grado di Ia nell’esercizio delle loro funzioni. Ad ottobre del 2016, ad esempio, sul poligono Usa di China Lake (California), tre F/A-18D del Vx-30, lo stormo della Us Navy deputato ai test e valutazioni di nuovi armamenti, hanno rilasciato da dei pod subalari 103 “microdroni” del tipo Perdex che hanno effettuato una missione di ricognizione comportandosi in modo autonomo come uno sciame di insetti.

Anche dall’altro capo del globo, in Cina, si stanno ottenendo risultati molto simili: lo scorso ottobre siamo venuti a conoscenza, tramite un video ufficiale, di un test in cui 48 droni “kamikaze”, dopo essere stati sparati da un mezzo particolare, si sono disposti autonomamente in “sciame” e hanno colpito il loro bersaglio. È anche molto probabile che tutte le ricerche che vengono fatte in Europa, Stati Uniti e Russia per velivoli unmanned da affiancare ai cacciabombardieri di quinta (e sesta) generazione, definiti in gergo loyal wingman, utilizzino anche in questo caso un certo livello di intelligenza artificiale, sebbene il controllo generale sia stabilmente nelle mani dell’uomo.

Esistono infatti, al momento, due approcci in antitesi per l’impiego e la progettazione di sistemi automatici ad Ia. Da un lato chi, come Usa, Gran Bretagna, Francia, Italia e altri Paesi occidentali, è fautore di un certo tipo di controllo finale nell’impiego, ad esempio, dei Laws (Lethal Autonomous Weapons Systems) denominato Human-in-the-loop che prevede la supervisione di un operatore sulle decisioni autonome dello strumento, dall’altro l’atteggiamento Human-out-of-the-loop che affida la totale autonomia decisionale alla macchina. Un approccio, quest’ultimo, pericoloso per le conseguenze facilmente immaginabili che porta con sé, e che potrebbe essere considerato in modo favorevole da altri Paesi.

.
Sogni di diventare fotoreporter?
SCOPRI L'ACADEMY