Le forze speciali americane hanno messo nel mirino la disinformazione. E intendono avvalersi dell’intelligenza artificiale per combattere le fake news e vincere una nuova potenziale guerra virtuale. Una minaccia crescente, che attraverso i social network può influire sul nostro futuro più di una guerra vera; anzi, potrebbe addirittura fornire le basi perfette per provocarla.

Nessun trafficante di armi, terrorista, leader separatista o organizzazioni paramilitari con ambizioni criminali: il Comando per le operazioni speciali degli Stati Uniti (Socom) vuole sconfiggere la disinformazione addestrando una rete neurale capace di analizzare e classificare la credibilità delle notizie, per separare l’informazione corretta da quella inquinata da informazioni non confermabili, o peggio dalle fake news. Questo perché nonostante i vantaggi tecnologici, nessuna divisione cibernetica si è mostrata sufficiente a scongiurare le minacce lanciate dagli eserciti di troll sulle piattaforme social-media. Armate di profili ed entità occulte che mirano a diffondere notizie false per destabilizzare governi e confondere l’opinione pubblica nei processi politici più delicati. La disinformazione può infatti colpire settori mirati, come un appuntamento elettorale o una campagna pro o contro una personalità di particolare rilievo in uno Stato; oppure essere rivolta a realtà più grandi e strategiche, minando gli equilibri geopolitici per destabilizzare lo status quo. Rendendo quello dell’informazione un nuovo teatro tattico.

Per questo inuovo programma degli specialisti del Pentagono, che vede impegnata in prima linea anche l‘Us Air Force, è quello di sviluppare un particolare software che, in ausilio alle divisioni cibernetiche già attive, potrebbe rivelarsi decisivo in questa nuova guerra.

L’idea è quella di addestrare questa rete neurale ad eseguire la “scansione di grandi quantità di testo ed estrarre temi e altre informazioni in base alla frequenza e alla prominenza di parole e frasi”, per formare una piattaforma capace di “identificare e valutare automaticamente la sospetta disinformazione” grazie alla velocità dell’intelligenza artificiale. Secondo quanto riportato da DefenseOne “il processo sarà lento”, dato che come spiegano gli esperti “c’è una grande differenza tra insegnare a una rete neurale artificiale a riassumere un articolo o un giornale e scrivere un titolo e insegnare ad un entità come separare i fatti reali da fatti fittizi”, mentre scansiona un’enorme quantità di testi multimediali (parliamo di milioni di contenuti in pochi minuti) dai quali deve “estrarre temi e altre informazioni in base alla frequenza e alla prominenza di parole e frasi” che riguardano un dato argomento, per poi verificarne la veridicità. Ma è un traguardo raggiungibile.

Il metodo annunciato per l’addestramento al discernimento delle informazioni da parte di questa nuova forma di intelligenza artificiale dovrebbe essere lo stesso che si impiega con un bambino che debba riconoscere il giusto dallo sbagliato. Ma verrebbe immediatamente da sollevare un problema oggettivo: cosa può essere davvero ritenuto vero e cosa falso nell’era della disinformazione? Tutto è molto arbitrario di questi tempi.

Uno degli attori coinvolti nel progetto, John Bohannon, ha riportato l’esempio del conflitto che sta riemergendo tra Armenia e Azerbaigian nel Nagorno Karabakh: un conflitto noto a pochi, riguardo il quale circolano notizie molto contrastanti in rete – prendiamo ad esempio la notizia dell’abbattimento di un jet armeno da parte di un caccia turco in appoggio alle forze militare azere – e che non coinvolge solo le due potenze minori dell’Asia orientale, ma due grandi potenze come Russia e Turchia. Informazioni poco chiare o false potrebbero dare un’idea totalmente errata di quanto sta accadendo in una regione così remota, proponendo all’utente una visione distorta che potrebbe influenzare non solo la sua idea sugli eventi, ma anche una scelta politica futura, che potrebbe anche tradursi nel concedere l’appoggio elettorale a chi proponesse una politica estera “aggressiva” o “passiva” nei confronti di un caso “x”.

Questa pratica, ricordano gli esperti, è estremamente diffusa e difficilmente redimibile nei regimi autoritari e nei Paesi che sono soggetti a democrazie poco efficienti. Realtà dove la pratica della “disinformazione” è ben rodata e sfocia spesso nella propaganda. Ciò diventa un “problema” anche per i Paese realmente democratici, che di riflesso vengono bombardati di informazioni prive di alcun fondamento, che si diffondono con un velocità sconvolgente nell’era dei social network, e possono tradursi nelle stesse scelte.

Secondo le stime, già nei prossimi anni gli operatori del Socom potrebbero essere in grado di determinare quali saranno le informazioni “certificate” e quali no. Fornendo al sistema dell’informazione la possibilità di affidarsi alle fonti più credibili e assegnandogli una “sorta di punteggio di accuratezza basato su diversi fattori”. Tale contributo potrebbe consentire alla rete di interagire in tempo reale con informazioni “vere”, ma potrebbe anche ipotizzare un impiego distopico di questo nuovo esercizio del potere sull’informazione. Non di rado infatti sentiamo parlare, soprattutto negli Stati Uniti, di “informazione pilotata” o peggio di “guerra dell’informazione”.

Se il campo di battaglia nell’epoca dei conflitti asimmetrici muta, devono mutare ed adeguarsi ad esso anche le tattiche. E sa tra queste tattiche rientra anche il riconoscimento della disinformazione, solo le divisioni d’élite che operano nel cyber-spazio possono occuparsene. E solo con l’ausilio di un intelligenza artificiale che sia capace di vagliare milioni di input in pochi secondo. Torna alla mente la figura chiave del matematico Alan Turing nella Seconda Guerra mondiale e l’impiego che venne fatto della sua creazione per decrittografare i codici nazisti. Dato che l’obiettivo sembra essere sempre lo stesso: mettere i più brillanti risultati del genio umano al servizio del “bene” per arginare ovunque sia possibile il “male”. Sempre arbitrariamente parlando. È ovvio.

diventa reporter con NOI ENTRA NELL'ACADEMY