Se fosse l’intelligenza artificiale a scegliere chi e quando uccidere? E se questa decisione non fosse vagliata dall’intelligence, o meglio, da un essere umano? Non stiamo parlando di uno scenario cinematografico, ma di Gaza assediata e delle vite dei civili che potrebbero dipendere dall’IA.
L’algoritmo che uccide
Un’inchiesta pubblicata dalla rivista +972 e Local Call riporta che Israele si è servita ampiamente di un database basato sull’intelligenza artificiale per individuare e colpire gli obiettivi di Hamas e altri militanti nella striscia di Gaza. Uno strumento implementato dai data scientist militari israeliani dal nome tanto evocativo quanto brutalmente improprio “Lavender” in italiano lavanda.
L’inchiesta ha raccolto informazioni da sei ufficiali dell’intelligence israeliana che hanno preso parte all’attuale guerra nella Striscia di Gaza e che sono stati coinvolti nell’uso dell’intelligenza artificiale per individuare gli obiettivi da assassinare. L’IA Lavender avrebbe avuto un ruolo chiave nelle prime fasi dei bombardamenti individuando e contrassegnando tutti i militanti di Hamas e tutti i militanti della Jihad islamica palestinese (PIJ). Ma le dinamiche non sono così lineari e ora capiamo il perché.
Secondo le fonti del giornalista e regista israeliano Yuval Abraham l’IDF si sarebbe affidato completamente a Lavender sia per l’individuazione di circa 37.000 target palestinesi, categorizzati come sospetti militanti, sia per l’individuazione delle loro abitazioni per gli attacchi aerei.
Allo scoppio del conflitto, su disposizione degli apparati dell’IDF, gli ufficiali avrebbero approvato le liste dei target da assassinare senza procedere ad alcuna verifica e senza alcuna valutazione sui dati grezzi di intelligence. È così che gli uomini dell’esercito avrebbero solamente avuto la funzione di conferma delle decisioni della macchina. Ogni vita strappata sarebbe costata loro solamente 20 secondi, giusto il tempo di verificare che l’obiettivo da assassinare fosse maschio.
Morire per un errore di calcolo
Non è certo un segreto che gli algoritmi, in quanto creazione dell’uomo, abbiano delle fallacie strutturali al loro interno, per Lavender questi errori potrebbero essere costati vite umane. Oltre ad un margine di errore che si aggira intorno al 10% dei casi analizzati, l’IA avrebbe contrassegnato come target anche individui che hanno avuto rapporti molto deboli con esponenti di Hamas.
L’altro dato scioccante di questa vicenda è che l’IDF avrebbe colpito gli obiettivi target dopo il loro rientro nelle proprie case, nonostante la presenza di tutte le loro famiglie. Sarebbero stati inoltre impiegati ulteriori sistemi automatizzati per l’individuazione degli uomini target soprattutto al rientro dalle loro famiglie, strategicamente più facili da colpire in quanto più vulnerabili. Uno dei nomi di questi sistemi automatizzati sarebbe stato chiamato “Where’s Daddy?” (Dov’è Papà?).
“Where’s Daddy?” è un programma creato per il tracciamento di migliaia di individui contemporaneamente che, dopo aver identificato il target mentre è a casa, invia un avviso automatico all’ufficiale di destinazione che provvede poi a contrassegnare l’abitazione come obiettivo da bombardare.
Il risultato rappresentato è che mentre i soldati applicavano il loro timbro della morte sulle decisioni prese dall’IA, migliaia di vittime palestinesi innocenti, tra cui donne e bambini, sono state colpite da raid aerei. Insomma, non sarebbe mai esistita una politica di errore zero.
Effetti collaterali
Stando a quanto scritto dal giornalista, secondo due delle sue fonti, l’idea di non provocare alcun danno collaterale sarebbe stata del tutto superata dopo il 7 ottobre. Allo scoppio della guerra, per ogni giovane agente di Hamas individuato attraverso Lavender sarebbe stato consentito uccidere fino a 15 – 20 civili.
Inoltre, molte delle munizioni sganciate da Israele sugli obiettivi che sarebbero stati selezionati da Lavender, erano le cosiddette “bombe stupide”, armi pesanti e non guidate che hanno provocato danni e perdite collaterali. Dietro questa scelta vi sarebbe stata la decisione di non sprecare equipaggiamenti a guida di precisione, molto più costosi, per “obiettivi di poco conto”.
La replica israeliana
In risposta all’inchiesta condotta dalla rivista +972 magazine , l’IDF in una nota inviata e pubblicata sul The Guardian, ha affermato che alcuni resoconti sono “privi di fondamento” e che alcune delle affermazioni sul programma Lavender non sono vere. Stando a quanto hanno tenuto a specificare, Lavender sarebbe semplicemente un database utilizzato per eseguire controlli incrociati con le informazioni di intelligence al fine di produrre informazioni aggiornate sui membri operativi delle organizzazioni terroristiche.
In attesa che le autorità italiane chiedano chiarimenti sull’impiego dell’IA in questo conflitto armato, da questa storia possiamo trarre un elemento certo: l’utilizzo di un’intelligenza artificiale come quella di Lavender nei conflitti armati rappresenta un buco nero per il diritto umanitario internazionale. Se quanto raccontato dall’inchiesta dovesse essere vero, come potranno essere identificati i responsabili dei civili uccisi?

