diventa reporter con NOI ENTRA NELL'ACADEMY
Difesa /

La Nato ha pubblicato recentemente la sua strategia relativa all’intelligenza artificiale (Ia). Questa tematica rappresenta una delle cosiddette emerging disruptive technologies, una tecnologia emergente che prorompe nel mondo attuale modificandolo profondamente. Un vero e proprio game changer non solo del campo di battaglia. Che sia ad apprendimento automatico (machine learning) oppure no, l’intelligenza artificiale è, insieme all’ipersonico e alla tecnologia quantistica, un fattore chiave per poter vincere le battaglie del futuro, e anche del presente, perché è nel presente che si sta giocando la battaglia per l’intelligenza artificiale.

A causa della sua natura trasversale, l’Ia porrà una serie di sfide sempre più ampia per la sicurezza internazionale, andando a incidere sia sulle capacità militari tradizionali, sia invadendo il campo delle minacce ibride, e, nel contempo, fornirà nuove opportunità per rispondere ad esse. L’Ia quindi sta avendo e avrà sempre più un forte impatto su tutti i compiti fondamentali della Nato e per questo l’Alleanza ha stabilito un piano strategico per poter affrontare le sfide che questa tecnologia impone.

I punti della strategia Nato

C’è in corso una gara, tra Nato, Cina e Russia, per ottenere la supremazia nel campo dell’intelligenza artificiale. Una gara con poche e aleatorie regole, come vedremo, e pertanto al fine di mantenere il suo vantaggio tecnologico l’Alleanza si sta impegnando affinché i suoi membri collaborino attivamente su qualsiasi questione relativa all’Ia che riguardi la difesa e la sicurezza transatlantica.

Lo scopo della strategia della Nato è quindi quadruplice: gettare le basi di una politica sull’Ia affinché Nato e suoi alleati diano l’esempio e incoraggino lo sviluppo e l’uso dell’intelligenza artificiale in modo responsabile; accelerare e integrare l’adozione dell’Ia nello sviluppo capacitivo, migliorando l’interoperabilità all’interno dell’Alleanza, anche attraverso nuove strutture e nuovi programmi; proteggere e monitorare le tecnologie di intelligenza artificiale atlantiche affrontando considerazioni sulla politica di sicurezza come ad esempio la definizione di principi di utilizzo responsabile dell’Ia; infine identificare le minacce derivanti dall’uso maligno dell’Ia da parte di attori statali e non statali.

In futuro, l’Alleanza integrerà l’Ia in modo interoperabile per supportare i suoi compiti principali. Tale uso secondo Bruxelles sarà condotto in modo riconosciuto e responsabile in conformità con il diritto internazionale. Proprio questo è il punto debole della postura Nato sull’intelligenza artificiale. Il documento prosegue affermando che “i principi della Nato sull’uso responsabile (dell’Ia n.d.r.) si basano su impegni etici, legali e politici esistenti e ampiamente accettati in base ai quali la Nato ha storicamente operato e continuerà ad operare. Questi principi non intaccano né sostituiscono obblighi e impegni esistenti, sia nazionali che internazionali”.

Risulta interessante, nel quadro della nostra analisi, andare a vedere in dettaglio quali sono i principi stilati dall’Alleanza. Il primo è quello della legalità, ovvero si afferma che le applicazioni di intelligenza artificiale saranno sviluppate e utilizzate in conformità con il diritto nazionale e internazionale, incluso il diritto internazionale umanitario e le leggi sui diritti umani, a seconda dei casi. Si parla poi di responsabilità, intendendo che i sistemi a Ia saranno sviluppati e utilizzati con adeguati livelli di giudizio e cura applicando in modo chiaro la “responsabilità umana”, ovvero l’attribuzione all’uomo , a chi impiega certi strumenti, la responsabilità per danni collaterali. L’Ia per la Nato dovrà anche essere “trasparente” e “tracciabile”, quindi utilizzare metodologie, fonti e procedure di revisione verificabili. Sarà affidabile, intendendo che le applicazioni Ia avranno casi d’uso espliciti e ben definiti con la sicurezza, la protezione e la solidità di tali capacità che saranno soggette a test e garanzie durante l’intero ciclo di vita. Saranno adottate misure proattive per ridurre al minimo qualsiasi distorsione non intenzionale nello sviluppo e nell’uso di applicazioni di intelligenza artificiale e nei set di dati. Infine il principio più importante – e più controverso – riguarda la governabilità: i sistemi a Ia saranno sviluppati e utilizzati con un’adeguata interazione uomo-macchina.

Il punto debole

Fondamentalmente, quindi, la Nato ha messo per iscritto che si affiderà alla possibilità, per l’uomo, di avere un ultimo controllo sulle applicazioni a intelligenza artificiale, ovvero quella capacità che in gergo viene definita human-in-the-loop. Questo è forse il punto più “debole” della strategia della Nato. Come sappiamo esistono due “scuole di pensiero” sull’utilizzo (quindi sulla progettazione) di sistemi a intelligenza artificiale: il primo, quello che abbiamo già citato, prevede che l’uomo abbia una qualche forma di controllo sulla macchina pensante, il secondo, che si definisce human-out-of-the-loop, non la prevede.

In quest’ultimo caso ogni decisione viene presa in totale autonomia dal sistema. Questa possibilità apre delle importanti questioni etiche, non solo sulla responsabilità ultima di eventuali danni collaterali, ma proprio sulla liceità di voler affidare la decisione di attaccare totalmente a una macchina, che potrebbe perfino scegliere il bersaglio da sé. Se, eticamente, riteniamo giusta la decisione della Nato di porsi nel campo del human-in-the-loop, dal punto di vista strategico questa scelta potrebbe rivelarsi non pagante: Paesi come Cina e Russia sono orientati, al momento, verso la seconda filosofia, sebbene la tendenza generale non intenda affidare eccessiva autonomia nell’identificazione e ingaggio dei bersagli alle macchine, ma mantenere il controllo umano.

Cina e Russia hanno un approccio diverso

Analisti e scienziati cinesi, infatti, ritengono che si arriverà a una “singolarità” sul campo di battaglia quando l’uomo non sarà più in grado di tenere il passo con la velocità operativa delle macchine, per cui il principio human-in-the-loop diventerà uno svantaggio, quindi stanno percorrendo la strada volta a escludere a priori la possibilità di intervento umano già alle origini dello sviluppo dei sistemi autonomi da combattimento dotati di Ia.

Allo stesso modo la Russia si è allineata sulle stesse posizioni attribuendo all’intelligenza artificiale la supremazia rispetto all’intervento umano, e l’esempio è dato dal “supersiluro” a propulsione nucleare e carica atomica Poseidon, che è in grado, una volta lanciato, di navigare, eludere le difese, restare in agguato e colpire il bersaglio, in modo del tutto autonomo.

Affinché la scelta di porsi nel campo human-in-the-loop sia pagante sul lungo termine è necessario mettere mano ai regolamenti internazionali: in questo momento non esiste nessun tipo di convenzione che limiti o anche solo regolamenti l’utilizzo di sistemi d’arma a intelligenza artificiale. Affidarsi genericamente ai principi della Convenzione di Ginevra o al Diritto Internazionale Umanitario è poi estremamente aleatorio, soprattutto perché, dall’altra parte della barricata, Cina e Russia – ma bisogna tenere presente che la lista si allungherà – sembrano intenzionate per il momento a non voler sedersi al tavolo di una trattativa per regolamentare questa nuova tecnologia “dirompente”.

Bisognerà quindi lavorare molto sotto il profilo diplomatico, affinché si giunga ad una messa al bando dei sistemi più “pericolosi”, ma oggettivamente stante l’attuale situazione riteniamo che nessuno voglia rinunciare a un possibile e altamente pagante vantaggio tecnologico, quindi, molto probabilmente, si arriverà alla trattativa solo dopo che tutte le parti avranno “saturato l’ambiente” un po’ come avvenne per l’escalation atomica: solo quando le due potenze hanno avuto negli arsenali un numero tale di ordigni da potersi distruggere più volte, e solo quando si è andati vicino a spezzare l’equilibrio “del terrore” si è aperta l’era dei trattati sul disarmo.