Guerra /

“L’avvento di una intelligenza artificiale super-intelligente potrebbe essere tanto la cosa migliore quanto la cosa peggiore mai successa all’umanità. Il vero rischio con l’A.I. non è la cattiveria, ma la competenza. Un’A.I. super – intelligente sarebbe molto efficace nel raggiungere i suoi scopi e se quegli scopi non sono in linea con i nostri sarà un problema”. Così si espresse l’astrofisico britannico Stephen Hawking parlando dei rischi dell’ingresso di robot e altri strumenti dotati di intelligenza artificiale nella nostra società.

Secondo Hawking, la singolarità di un’A.I. in casi estremi potrebbe schiacciare l’umanità, se ritenesse che il suo ruolo non fosse considerato necessario o efficiente, esattamente come nel celeberrimo film di fantascienza Terminator, dove il supercomputer della Difesa Skynet, divenuto autocosciente, decide di sterminare la popolazione umana ritenuta essere di ostacolo nel raggiungimento del suo scopo: la pace mondiale.

Il problema della singolarità dell’intelligenza artificiale non è una questione fantascientifica da quando i principali Stati stanno sviluppando sistemi – come i Laws (Lethal Autonomous Weapons Systems) – in grado di effettuare attacchi, e quindi prendere decisioni, indipendentemente dall’intervento umano. Per singolarità tecnologica si intende, infatti, il punto in cui il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani.

Il termine è mutuato dalla fisica ed è scelto come una metafora: mentre ci si avvicina alla singolarità, i modelli di previsione del futuro diventano meno affidabili, esattamente come i modelli della fisica diventano inefficaci in prossimità di una singolarità gravitazionale. Da qui la necessità di una normativa, o almeno un codice etico, da inserire nella programmazione o nella progettazione di robot, atti a limitare la capacità di nuocere, in particolare per quanto riguarda i Laws, che hanno capacità offensive.

Un futuro che è già realtà

Il campo di battaglia si è trasformato, in realtà sarebbe meglio dire rivoluzionato, con l’introduzione di quegli strumenti volgarmente detti “droni”.

Esistono già piattaforme che operano in remoto nel campo della raccolta informazioni, ricognizione e attacco, nei teatri terrestre, aereo e navale. I Laws, sebbene attualmente siano ancora in fase embrionale, sono la nuova e ultima frontiera: gli Stati Uniti, ad esempio, prevedono l’entrata in servizio di Laws con intelligenza artificiale attraverso il progetto Armed Wingman/Teammate (Human decision to engage) tra il 2029 ed il 2042.

Esistono, al momento, due approcci in antitesi per l’impiego e la progettazione di questi sistemi. Da un lato chi, come Usa, Gran Bretagna, Francia, Italia e altri Paesi occidentali, è fautore di un certo tipo di controllo finale nell’impiego dei Laws denominato Human-in-the-loop che prevede la supervisione di un operatore sulle decisioni autonome dello strumento, dall’altro l’atteggiamento Human-out-of-the-loop che affida la totale autonomia decisionale al Laws.

Paesi come Cina e Russia sono orientati, al momento, verso la seconda filosofia, sebbene la tendenza generale non intenda affidare eccessiva autonomia nell’identificazione e ingaggio dei bersagli alle macchine, ma mantenere il controllo umano.

Analisti e scienziati cinesi, infatti, ritengono che si arriverà a una “singolarità” sul campo di battaglia quando l’uomo non sarà più in grado di tenere il passo con la velocità operativa delle macchine, per cui il principio Human-in-the-loop diventerà uno svantaggio, quindi stanno percorrendo la strada di escludere a priori la possibilità di intervento umano già alle origini dello sviluppo dei Laws. Allo stesso modo la Russia si è allineata sulle stesse posizioni attribuendo all’intelligenza artificiale la supremazia rispetto all’intervento umano.

Il principio a cui si ispirano Mosca e Pechino è quello secondo cui l’intelligenza artificiale, tramite i dati raccolti coi suoi sensori, può analizzare e rispondere ad una situazione senza la capacità di supposizione che è propria dell’uomo, e quindi eliminando gli errori di valutazione, perché entra in azione solo quando raccoglie un numero significativo di dati che confronta con il suo database in base al programma di esecuzione caricato.

Questa considerazione, però, è attualmente ritenuta valida da una minoranza di analisti ed esperti per questioni sia etiche sia tecnologiche.

Quali sono i rischi dell’intelligenza artificiale sul campo di battaglia?

Oltre al già citato problema della singolarità, che però non è di urgenza impellente dato l’attuale grado di sviluppo delle macchine, ci sono delle criticità evidenti sia a livello etico che pratico.

Dal punto di vista pratico i sistemi dotati di A.I. hanno riscontrato difficoltà oggettive nel riconoscimento di una minaccia: tali strumenti possono facilmente essere ingannati da leggere deviazioni dalla rappresentazione standard delle minacce caricate dal programmatore e in almeno un esperimento, tenuto dagli americani, una tartaruga è stata identificata come un fucile d’assalto dal Laws, che è anche vulnerabile al cosiddetto spoofing, così come ai tentativi di hackeraggio da parte del nemico.

Il problema non è da poco. Immaginiamo uno scenario di guerriglia urbana o di sommossa in cui un Laws potrebbe operare: come distinguere i riottosi armati dalla popolazione inerme? Come può distinguere una persona armata di fucile, o Rpg, da un civile che imbraccia un bastone? Nel caso di guerre asimmetriche, poi, esiste una questione di difficile risoluzione che riguarda anche i mezzi utilizzati dal nemico: può un Laws distinguere un comune pick-up da uno armato di mitragliatrice leggera o lanciarazzi? Può l’intelligenza artificiale distinguere un autobus, o un camion, utilizzato per scopi civili, da un trasporto militare? Tutte domande che, al momento, non trovano risposta.

Dal punto di vista etico, ovvero dell’interazione dell’intelligenza artificiale coi principi che regolano la vita umana, anche sul campo di battaglia, si apre un campo del tutto inesplorato, anzi, vergine. Partendo dall’assunto che le famose leggi di Asimov sulla robotica non sono applicabili in senso stretto in quanto si tratta di sistemi sviluppati per eliminare i nemici, occorre quindi formulare delle nuove regolamentazioni che dovranno regolamentare l’agire dell’intelligenza artificiale sul campo di battaglia.

Nessuna norma di diritto internazionale attualmente in vigore disciplina o vieta l’utilizzo di Laws, purtuttavia esistono dei principi universalmente riconosciuti che tutelano la popolazione civile non combattente e soprattutto che limitano l’impiego di mezzi o determinati metodi di guerra.

Nel Diritto Internazionale Umanitario (Diu), ed in particolare nella Convenzione dell’Aja, esiste un passaggio che potrebbe fornire la base di partenza per la regolamentazione dell’I.A. in guerra. La “clausola Martens” afferma che “in attesa che una codificazione più completa delle leggi della guerra possa essere edita, le Alte Parti Contraenti giudicano opportuno constatare che, nei casi non compresi nelle disposizioni regolamentari da Esse adottate, le popolazioni e i belligeranti restano sotto la salvaguardia e sotto l’imperio dei principi derivati dal diritto delle genti, quali risultano dagli usi stabiliti tra nazioni civili, dalle leggi dell’umanità e dalle esigenze della pubblica coscienza”.

In base a questa affermazione sarebbe pertanto possibile identificare una norma di protezione per civili e combattenti nell’utilizzo del Laws. Esiste però un ostacolo, prima che giuridico, dato dalla stessa natura del mezzo. Sempre il Diu prevede che ci si attenga al principio di proporzionalità con lo scopo di limitare i danni alla popolazione e ai beni civili dalle operazioni militari, imponendo che l’impiego di armi e di metodi di guerra non sia sproporzionato rispetto al vantaggio militare ricercato.

Una valutazione che risulta tutto sommato facile per un essere umano, ma che potrebbe essere difficoltosa per l’intelligenza artificiale sino ad andare del tutto in contrasto con la sua “visione” una volta che fosse raggiunta la “singolarità”, e pertanto venire ignorata. Che scrupolo potrebbe avere, una macchina autocosciente che ha il fine ultimo di vincere una battaglia, ad eliminare un’intero gruppo di uomini, un’intera popolazione, qualora dovesse decidere, autonomamente, che questo rappresenti l’unica mossa vincente per completare il suo programma operativo? Nessuno. Un po’ quanto accade per l’uomo quando distrugge un ecosistema per costruire una diga che fornirà energia elettrica a un’intera regione.

Non esistendo, infatti, nessun indicatore quantitativo oggettivo – quindi fissato – di proporzionalità tra danni e vantaggio militare, la valutazione deve essere effettuata qualitativamente dal comandante – o da un operatore umano di qualche tipo – e pertanto una tecnologia Human-out-of-the-loop risulta molto pericolosa in questo senso.

C’è chi sostiene che l’intelligenza artificiale di un Laws possa essere programmata per attenersi a questi principi, quindi operare in conformità del Diu, ma un intervento umano di qualche tipo risulterà comunque necessario quando si arriverà a livelli di sviluppo tali in cui macchine progetteranno autonomamente altre macchine. Uno scenario da Terminator che si sta avvicinando a grandi passi.

Come fare per evitare lo scenario “Skynet”?

Per cercare di evitare il peggiore degli scenari possibili, ovvero quello del raggiungimento della totale autonomia decisionale dell’intelligenza artificiale, si sta cercando di arrivare ad accordi internazionali tra i Paesi che stanno per introdurre, o hanno già introdotto, varie forme di questa tecnologia nei sistemi d’arma.

Durante una riunione tenutasi ad agosto 2018 del gruppo Onu di esperti governativi (Gge) per cercare di dirimere la questione, 26 Paesi hanno proposto la messa al bando dei sistemi letali totalmente automatici, mentre altri 12, tra cui Russia, Stati Uniti e Regno Unito si sono opposti anche ad un’eventuale apertura di negoziazioni su di un possibile trattato internazionale riguardante i Laws.

Attualmente il dibattito quindi è del tutto aperto con posizioni spesso contrastanti. Nel tentativo di tradurre in concreto le discussioni sulle linee d’azione, alcuni Stati ed organizzazioni hanno proposto alcune linee guida per il futuro: da un lato Paesi come Brasile, Austria e Cile hanno evidenziato l’urgenza che la Gge stabilisca un nuovo strumento vincolante internazionale riguardante i Laws, sostenuto dalla maggioranza delle delegazioni internazionali – tra cui anche quella della Croce Rossa – alcune delle quali ne hanno caldeggiato la messa al bando, come già detto, dal lato opposto, invece, troviamo quei Paesi, tra cui Australia, Regno Unito, Argentina, che hanno proposto di continuare a discutere sulla possibile utilizzazione delle normative vigenti, nello specifico dell’articolo 36 del Primo Protocollo Addizionale della Convenzione di Ginevra.

La strada per arrivare ad una normativa universalmente accettata risulta essere quindi in salita, soprattutto per i diversi approcci di quelle potenze globali come Russia, Cina o Stati Uniti che maggiormente sono attive nel campo della ricerca sull’intelligenza artificiale applicata agli strumenti bellici.

Se una messa al bando di tali sistemi appare utopistica ed inverosimile, è però fondamentale, a nostro giudizio, che vi sia la volontà generalizzata di costruire sistemi in grado di avere un qualche tipo di controllo umano finale, pertanto con tecnologia Human-in-the-loop, gli unici, che, attualmente, possono fornire un qualche tipo di sicurezza e, non da ultimo, capacità decisionale e quindi di assunzione di responsabilità da parte dell’uomo.