I funzionari della Nato stanno affrontando una nuova serie di questioni riguardanti le applicazioni nella Difesa per l’intelligenza artificiale in quanto l’Alleanza deve cercare una linea guida di massima in vista della definizione di documento strategico, che dovrebbe essere pubblicato entro questa estate.
La discussione sull’Ia rientra in quello sforzo, profuso dalla Nato, per affinare il proprio vantaggio in quelle che vengono chiamate tecnologie emergenti e dirompenti, o Edt (Emerging and Disruptive Technologies). Le armi autonome e quelle operate dall’intelligenza artificiale sono un elemento chiave in questa spinta, volta a garantire la leadership tecnologica su scala globale.
L’uso dell’intelligenza artificiale in campo militare
L’intelligenza artificiale si sta affermando sempre più nel campo militare, sebbene non sia affatto una novità: se prima però era confinata a sofisticati programmi di previsione della minaccia oppure di gestione delle risorse, oggi trova applicazione in sistemi d’arma anche complessi che spaziano dai missili da crociera, dai software di analisi e coordinazione della risposta militare, sino ai droni, piccoli o grandi che siano. In particolare è un determinato settore di ricerca, quello delle macchine dotate di capacità di apprendimento, a destare preoccupazione insieme ai Laws, acronimo di Lethal Autonomous Weapons Systems, che sono sempre più diffusi proprio per le loro caratteristiche intrinseche.
Al centro del dibattimento che si terrà all’Alleanza Atlantica durante il vertice del prossimo 14 giugno, sarà proprio il campo d’azione dell’intelligenza artificiale in un sistema d’arma, ovvero quando questa dovrà trovare impiego e quando no. “Abbiamo convenuto di aver bisogno di principi di uso responsabile, ma stiamo anche delineando tecnologie specifiche”, ha dichiarato David van Weel, assistente segretario generale della Nato per le sfide di sicurezza emergenti, in un evento web organizzato all’inizio di questo mese dal ministero della Difesa estone, come riporta il sito C4isrNet.
Verso regole comuni per l’Alleanza
Regole diverse potrebbero essere applicate a sistemi diversi a seconda dell’uso previsto e del livello di autonomia coinvolto, ha affermato. Ad esempio, un algoritmo che vaglia i dati come parte di un’operazione di back-office presso il quartier generale della Nato a Bruxelles sarebbe soggetto a un livello di controllo diverso rispetto a un’arma autonoma. Inoltre sono in elaborazione regole per l’industria affinché acquisisca i requisiti stabiliti in modo che siano aderenti a una futura politica della Nato sull’intelligenza artificiale. L’idea è di presentare una lista di principi per le aziende per determinare ciò che i loro prodotti possano fare (o non fare n.d.r.), ha detto van Weel.
Al momento, i funzionari dell’Alleanza stanno dibattendo su quali siano le questioni da porre sul tavolo: queste vanno da quelle base, ovvero se i sistemi operati dall’intelligenza artificiale rientrino nei “mandati legali” della Nato, sino a quelle più “tecniche”, come ad esempio se un dato sistema sia privo di “pregiudizi”, ovvero capire se il suo processo decisionale sia “viziato” originariamente in una particolare direzione. Responsabilità e trasparenza sono altre due parole d’ordine che dovrebbero essere sul tavolo del dibattimento: come abbiamo già avuto modo di dire, esistono delle implicazioni legali, con risvolti etici, non indifferenti in caso di incidenti con veicoli autonomi, come ad esempio la questione di chi sia responsabile, se il produttore o l’operatore.
La trasparenza dietro l’algoritmo
Secondo van Weel sarà cruciale anche il livello di visibilità sulla modalità in cui i sistemi prendono le decisioni. “Puoi spiegarmi, come operatore, cosa fa il tuo veicolo autonomo e perché fa certe cose? E se fa cose che non ci aspettavamo, possiamo spegnerlo?” ha detto ancora l’alto funzionario della Nato. Lo sforzo dell’Alleanza per stabilire un terreno comune sull’intelligenza artificiale segue una spinta dell’Unione europea a fare lo stesso, anche se, in questo caso, non sono state considerate le sue applicazioni militari (ed è un errore). Inoltre, il dibattito, si è anche tenuto in sede Onu, senza però essere giunti ad una linea guida – o moratoria – sull’impiego dell’Ia nel campo degli armamenti.
C’è il rischio di un garbuglio burocratico: i regolatori tendono a concentrarsi troppo sul particolare, fissandosi su varie definizioni di cosa si intenda per “autonomia” e abbinandole successivamente a potenziali casi d’uso. Frank Sauer, ricercatore presso la Bundeswehr University di Monaco, ritiene che si debba pensare in modo “agnosticamente tecnologico”, suggerendo che i funzionari pongano maggiore enfasi sui meccanismi precisi del controllo umano. “Supponiamo che la macchina possa fare tutto ciò che vuole: che ruolo dovrebbero svolgere gli esseri umani?” ha detto il ricercatore.
A prima vista sembra un voler spaccare il famoso capello in quattro, ma la questione è davvero di fondamentale importanza: che ruolo deve avere l’uomo nell’impiego di armamenti ad intelligenza artificiale? Se una macchina è in grado di apprendere dai propri errori e di operare, in funzione di questo, secondo proprie scelte autonome, di chi è la responsabilità in caso di vittime collaterali?
I quesiti irrisolti intorno all’AI
Quesiti ancora aperti e di non facile risoluzione. I sistemi dotati di Ia hanno riscontrato difficoltà oggettive nel riconoscimento di una minaccia: tali strumenti possono facilmente essere ingannati da leggere deviazioni dalla rappresentazione standard delle minacce caricate dal programmatore, inoltre sono anche vulnerabili al cosiddetto spoofing, così come ai tentativi di hackeraggio da parte del nemico.
Il problema non è da poco. Immaginiamo uno scenario di guerriglia urbana o di sommossa in cui un Laws potrebbe operare: come distinguere i riottosi armati dalla popolazione inerme? Come può distinguere una persona armata di fucile, o Rpg, da un civile che imbraccia un bastone? Nel caso di guerre asimmetriche, poi, esiste una questione di difficile risoluzione che riguarda anche i mezzi utilizzati dal nemico: può un Laws distinguere un comune pick-up da uno armato di mitragliatrice leggera o lanciarazzi? Può l’intelligenza artificiale distinguere un autobus, o un camion, utilizzato per scopi civili, da un trasporto militare? Tutte domande che, al momento, non trovano risposta.
Per questo c’è chi pensa che tra le tecnologie che prevedono comunque una qualche forma di controllo umano (human-in-the-loop) e quelle che non lo prevedono (human-out-of-the-loop) siano comunque sempre preferibili le prime, sebbene non tutti siano dello stesso avviso.
Alcuni Paesi, come Cina e Russia, sembra stiano imboccando questa seconda strada, con tutti i pericoli che ne derivano. Mosca, ad esempio, ha in fase di entrata in servizio di un’arma di distruzione di massa autonoma, il supersiluro a propulsione e carica atomica Poseidon, che per le sue caratteristiche, oltre ad essere un’arma di rappresaglia strategica, è a tutti gli effetti un Laws perché una volta lanciato decide autonomamente quando colpire, magari restando celato nelle profondità marine per diverso tempo in modo da eludere i sistemi di ricerca del nemico.
Le decisioni che si prenderanno al tavolo della Nato il prossimo giugno terranno sicuramente conto anche di questo aspetto, ovvero di quello che sta facendo “il nemico”, che è imprescindibile da ogni considerazione etica.