Secondo gli analisti dalla RAND Corporation, l’intelligenza artificiale a cui la Difesa delle grandi potenze confida di affidarsi sempre con maggiore ‘certezza’ potrebbe destabilizzare il delicato equilibrio della deterrenza nucleare, avvicinando il mondo al tanto temuto ‘olocausto’.  L’AI –Artificial intelligence –  più veloce, più performante, più intelligente dell’essere umano che l’ha creata e l’adopera, attraverso i suoi sensori e milioni di dati open source della quale dispone in una manciata di millisecondi, potrebbe convincere le grandi potenze che la loro capacità nucleare è sempre più vulnerabile. Indurli a riabbracciare la corsa agli armamenti che ha scandito la guerra fredda, e , in situazioni di tensioni internazionali che sfocino in atti di guerra, convincerli di un pericolo imminente che potrebbe portare allo scenario più preoccupante:  capi di Stato Maggiore che potrebbero prendere decisioni definitive, come lanciare ‘strike’ (bombardamenti mirati n.d.r) convenzionali o nucleari sulla sola base di pareri generati da sistemi affidati internamente all’AI, che potrebbero aver ricevuto o elaborato informazioni essenzialmente errate.

La RAND corporation – al servizio dell’US Air Force dal 1948 – ha recentemente riunito i maggiori esperti di sicurezza nucleare, intelligenza artificiale, del governo e dell’industria per analizzare questa remota quanto inquietante prospettiva e comporre un rapporto che rilevi l’entità del rischio. Pubblicato la scorsa settimana, il report sottolinea come l’AI prometta di aumentare esponenzialmente l’efficacia e la capacità di un teorico Paese A di bersagliare gli armamenti nucleari di un teorico Paese B. Questo potrebbe portare il Paese B – ipotizzato teoricamente come un possibile avversario degli Stati Uniti o dell’Alleanza Atlantica – a ripensare radicalmente i ‘rischi e i benefici’ derivanti dall’acquisire armi nucleari, avviare un proprio programma nucleare (come Nord Corea e Iran) o addirittura lanciare un primo attacco in una condizione di crisi internazionale. “Anche se l’IA migliora solo modestamente la capacità di integrare i dati sulla disposizione dei missili nemici, potrebbe indebolire sostanzialmente lo stato senso di sicurezza e minare la stabilità delle crisi “, afferma il rapporto redatto dagli esperti di caratura mondiale.

La Corea del Nord, la Cina e la Russia hanno a disposizione per queste evenienze lanciatori mobili, basi sotterranee e siti segreti dai quali lanciare strike nucleari attraverso vettori armati di ICBM –Intercontinental Ballistic Missile. In una simile situazione – come si paventava nello stallo della crisi Nordcoreana – gli Stati Uniti avrebbero avuto “meno di 15 minuti di preavviso prima di un eventuale lancio effettuato Corea del Nord”, secondo quanto affermato lo scorso gennaio dal generale dell’Us Air Force Paul  J. Selva (VJCS, secondo grado più alto nell’apparato delle forze armate Usa).

Questi 15 minuti che precederebbero la dead-line dell’impatto sarebbero proprio quelli impiegati dagli analisti della Difesa per scegliere una risposta. Quelli che  sfrutterebbero a pieno i dati forniti dall’intelligenza artificiale che cercherebbe di incrociare ogni informazione possibile per individuare la posizione dei siti che hanno effettualo il lancio – e altre probabili – e rispondere all’attacco con un margine di rischio che lascerebbe sempre spazio ad un secondo o un terzo lancio. Fine dell’equilibrio di deterrenza: possibile olocausto nucleare. Dopo i recenti sviluppi, la Corea del Nord, che ha annunciato il termine di ogni test balistico e il progetto congiunto di una denuclearizzazione della penisola, non sarebbe più da considerarsi un rischio; ma una superpotenza come la Russia, il nemico di sempre degli Stati Uniti nel campo della corsa agli armamenti, potrebbe valutare e decidere di aver sempre più bisogno di armi nucleari che garantiscano all’occorrenza la massima efficacia e che siano estremamente difficili da rilevare, come il siluro autonomo Status-6.

 “È estremamente impegnativo per uno stato sviluppare la capacità di localizzare e bersagliare tutti i lanciatori di armi nucleari nemiche. Tale capacità produce un immenso vantaggio strategico”, afferma il rapporto. “Il sistema di localizzazione e targeting deve (dovrebbe) solo essere percepito come capacità di destabilizzare. Una capacità che potrebbe rivelarsi anche più pericolosa” se valutata come rischio di perdere il proprio potere di deterrenza. Il seminario ha anche analizzato lo scenario nel quale i comandanti potrebbero sfruttare l’intelligenza artificiale per formulare un giudizio sugli attacchi nucleari e decidere di conseguenza. Tale ausilio, nelle conclusioni tratte dal report, potrebbe aiutare i componenti delJoint Chiefs of Staffa prendere decisioni efficaci e ben ponderate – ma, se inquinate da informazioni fallaci, o penetrati da dati errati causasti da cyber-attecci, anche catastrofiche. Privi di mezzi per verificare e certificare la validità degli dei dati forniti dall’AI che verrebbero consultati in una fase così delicata – preoccupazione avanzata dalla CIA che vuole cercare una soluzione al più presto -, dunque di un’ adeguata comprensione degli intenti del ‘nemico’ che potrebbe essere pronto a colpire con i missili in fase di preriscaldamento, oppure potrebbe solo essere al culmine di una dimostrazione di forza senza seguito; l’AI rimane un’arma che gli li avversari potrebbero sfruttare contro il Paese A (gli USA). Conducendolo a fallire un attacco, lanciarlo per primo o addirittura contro un avversario sbagliato. In questa terrificante prospettiva, informazioni false combinate con cyber-attacchi e processi decisionali affidati all’intelligenza artificiale che gestisce i dati di armi di una potenza inimmaginabile potrebbero portare alla terza guerra mondiale, o più semplicemente alla fine dell’umanità.

È un momento difficile
STIAMO INSIEME