Capire la finanza, per capire il mondo FOLLOW THE MONEY
Difesa /

L’intelligenza artificiale e la capacità di apprendimento automatico (machine learning) vengono classificate da tempo, da parte del mondo militare, come una tecnologia emergente dirompente (Emergency Disruptive Technology – Edt), insieme all’ipersonico, ai computer quantistici, alle biotecnologie avanzate e ai big data.

Avere uno strumento bellico letale, capace di prendere decisioni autonome, si prospetta come il futuro della guerra moderna stante i progressi tecnologici in tal senso e soprattutto la volontà delle nazioni più avanzate in questo settore di perseguire questo obiettivo.

Sebbene esista un dibattito etico sull’uso delle Laws (Lethal Autonomous Weapon System), portato anche davanti ai massimi organismi internazionali come l’Onu, serpeggia il pensiero – che in realtà è una paura – di “restare indietro” rispetto a un avversario qualora si decidesse arbitrariamente il bando di tali strumenti, soprattutto c’è la convinzione che l’evoluzione dell’IA porterà naturalmente a una fase tecnologica in cui potrà autonomamente prendere le decisioni pur non avendo ancora raggiunto la “singolarità” che le permetterà di avere capacità superiori a quelle del cervello umano, quindi di arrivare a un punto in cui la nostra comprensione e il nostro controllo su di essa saranno sostanzialmente impossibili.

Questo futuro potrebbe apparire ancora lontano, ma il campo di battaglia ha mostrato inquietanti segnali in tal senso.

Il primo uso di un’arma autonoma in guerra?

A giugno 2021 è stata diffusa la notizia che un drone militare ha attaccato soldati durante una battaglia nella guerra civile in Libia l’anno precedente, e che potrebbe averlo fatto senza il controllo umano. Il drone, descritto in un rapporto dell’Onu come “un sistema d’arma autonomo letale”, era alimentato dall’intelligenza artificiale e utilizzato dalle forze sostenute dal governo di Tripoli contro i combattenti della milizia nemica. I miliziani, si legge nel rapporto, “sono stati braccati e ingaggiati a distanza da veicoli aerei da combattimento senza pilota o da sistemi d’arma autonomi letali” senza però precisare se ci siano state vittime o feriti. I sistemi d’arma “erano programmati per attaccare obiettivi senza richiedere la connettività dati tra l’operatore e la munizione: in effetti una vera capacità ‘spara, dimentica e trova’”.

Il drone, o forse il Laws, in questione sembrerebbe essere il “Kargu-2” di fabbricazione turca, e anche se non sappiamo quali siano effettivamente le sue capacità di effettuare un attacco simile, quanto accaduto apre uno scenario inquietante in quanto attualmente non esiste nessuna norma giuridica ad hoc di attribuzione di responsabilità per azioni del genere. Probabilmente il “Kargu-2”, al pari di altri droni suicidi dotati di un certo grado di IA, continua a mantenere la funzione “man-on-the-loop”, ovvero un controllo umano anche se dotato di possibilità autonoma di ricerca e ingaggio: banalmente l’operatore può decidere di abortire l’attacco in corso.

Come detto, però, il mondo sta andando velocemente verso i sistemi automatici, pertanto cerchiamo di fare una rapida panoramica di quanto sta accadendo nelle due maggiori potenze globali che sembrano destinate ad affrontarsi militarmente: Stati Uniti e Cina.

Gli Usa e la rincorsa all’IA

L’intelligenza artificiale impiegata dalle forze armate statunitensi ha dimostrato di essere in grado di pilotare piccoli droni di sorveglianza nelle missioni delle forze operative speciali e ha aiutato l’Ucraina nella sua guerra contro la Russia. Tiene traccia della forma fisica dei soldati, prevede quando gli aerei dell’Air Force necessitano di manutenzione e aiuta a tenere d’occhio i rivali nello spazio.

Ora, il Pentagono è intenzionato a mettere in campo migliaia di veicoli autonomi con Ia relativamente economici entro il 2026 per tenere il passo con la Cina. Come riferisce Ap, sebbene il suo finanziamento sia incerto e i dettagli siano vaghi, si prevede che questa iniziativa – chiamata “Replicator” – acceleri il processo decisionale su quale tecnologia di intelligenza artificiale sia sufficientemente matura e affidabile da implementare, anche su sistemi armati. Scienziati, esperti del settore e funzionari del Pentagono sono concordi nel ritenere che entro i prossimi anni gli Stati Uniti disporranno di armi letali completamente autonome, e nonostante le forze armate Usa insistano nell’affermare che gli esseri umani avranno sempre il controllo, gli esperti ritengono che i progressi nella velocità di elaborazione dei dati e nelle comunicazioni da macchina a macchina relegheranno inevitabilmente le persone a ruoli di supervisione.

A gennaio 2023, il Dipartimento della Difesa ha aggiornato la direttiva del 2012 che regola lo sviluppo responsabile di sistemi d’arma autonomi agli standard allineati con i progressi dell’intelligenza artificiale. Gli Stati Uniti hanno anche introdotto una dichiarazione politica sull’uso militare responsabile dell’IA, che cerca di codificarne le norme per l’uso. Gli Usa quindi continueranno a esplorare questo ambito pur rimanendo consapevoli dei potenziali pericoli associati a questa tecnologia.

L’ambiguità cinese

La Cina sembra propensa a percorre la stessa strada, anzi l’ha intrapresa per prima considerando l’IA uno strumento essenziale per avere quel vantaggio strategico che ricerca nei confronti degli Stati Uniti.

In assenza di una politica ufficiale o di una guida da parte dei leader militari cinesi, è difficile prevedere come Pechino affronterà le questioni relative al controllo umano sui sistemi autonomi, in particolare man mano che queste capacità progrediranno e si evolveranno. Storicamente, i leader cinesi hanno privilegiato il controllo centralizzato sulle forze armate, pertanto potrebbero essere generalmente riluttanti a cedere il controllo a singoli esseri umani, per non parlare di macchine, temendo la perdita del “comando assoluto” del Partito.

Allo stesso tempo, gli studiosi e gli scienziati militari cinesi sembrano essere relativamente pragmatici nel modo in cui affrontano e discutono le sfumature della tecnologia human-in-the-loop” e “human-out-of-the-loop. Dati i vincoli tecnici e le incertezze, ci sono ragioni per aspettarsi nel breve termine che l’esercito cinese manterrà gli esseri umani “in-the-loop” o almeno “on-the-loop”, ma è più difficile prevedere se si manterranno queste posizioni se le condizioni e le considerazioni tecniche cambieranno.

A oggi, la discussione sul controllo umano sembra essere meno consolidata in Cina rispetto agli Stati Uniti ma non ci sono prove chiare che indichino che l’esercito cinese sia più propenso a perseguire l’autonomia e/o l’automazione in modo da escludere gli esseri umani dal processo decisionale.

Nel breve termine, il coinvolgimento umano nel comando e nel controllo sembra essere ritenuto necessario per ragioni tecniche, e l’esercito cinese sta esplorando attivamente concetti che sfruttano le sinergie tra l’intelligenza umana e quella artificiale. Tuttavia le preoccupazioni sull’opportunità operativa di avere sistemi letali autonomi potrebbero cadere se – o quando – il loro utilizzo verrà considerato potenzialmente vantaggioso. Bisogna però sottolineare che a livello del processo decisionale strategico, comprese le decisioni che implicano l’impiego di armi nucleari, è quasi certo che un essere umano rimarrà “in-the-loop” per il prossimo futuro.

Abbonati e diventa uno di noi

Se l’articolo che hai appena letto ti è piaciuto, domandati: se non l’avessi letto qui, avrei potuto leggerlo altrove? Se pensi che valga la pena di incoraggiarci e sostenerci, fallo ora.

Non sei abbonato o il tuo abbonamento non permette di utilizzare i commenti. Vai alla pagina degli abbonamenti per scegliere quello più adatto