I gruppi jihadisti internazionali, noti per l’uso degli strumenti digitali a fini propagandistici, stanno ora sfruttando l’intelligenza artificiale (IA) per potenziare le loro attività. Adam Hadley, direttore di Tech Against Terrorism, ha spiegato che l’IA generativa viene impiegata in modo economico per creare contenuti – video, immagini, testi – e per la loro diffusione, spesso tramite l’uso di bot automatizzati. L’ISIS, in particolare, ha saputo adattarsi rapidamente a queste nuove tecnologie. Già il 17 maggio scorso, solo un mese dopo l’attentato al Crocus City Hall di Mosca, sono stati scoperti diversi programmi informativi generati dall’IA che diffondevano la propaganda dello Stato Islamico. Già da marzo, altri programmi simili relativi alle attività di Daesh erano stati pubblicati con cadenza quasi settimanale.
Non sono solo i gruppi jihadisti a sfruttare queste tecnologie. Un rapporto del Domestic Terrorism Threat Monitor evidenzia come anche i movimenti neonazisti e suprematisti bianchi abbiano adottato l’IA generativa su larga scala. Il rapporto mette in guardia contro il pericolo di soluzioni personalizzate prive di qualsiasi forma di moderazione, come dimostra il caso di Gab, una piattaforma di IA non filtrata. Un altro uso preoccupante dell’IA riguarda la creazione di modelli per la fabbricazione di armi tramite stampanti 3D o di bombe artigianali, oltre all’elaborazione di codici per sottrarre dati personali di potenziali reclute.
L’IA ha anche il potenziale per rafforzare le capacità dei gruppi terroristici in termini di attacchi informatici e operazioni cinetiche. Sebbene non siano ancora ampiamente utilizzate, le tecnologie di IA possono migliorare attacchi come il phishing, generando informazioni false per ingannare gli utenti. Dal punto di vista cinetico, l’IA migliora l’efficacia operativa, specialmente nell’uso di droni. Grazie agli algoritmi, i droni possono acquisire capacità avanzate di rilevamento e tracciamento, oltre a una migliore analisi dei dati. I gruppi armati, come i ribelli Houthi e Hezbollah, hanno già dimostrato l’efficacia dell’uso dei droni in operazioni militari.
Per contrastare questo fenomeno, diverse iniziative sono state lanciate. Google, ad esempio, ha creato nel 2010 Google Ideas, oggi noto come Jigsaw, un incubatore tecnologico dedicato alla lotta contro l’estremismo online. Inoltre, il Global Internet Forum to Counter Terrorism (GIFCT), fondato nel 2017 da un consorzio di aziende tecnologiche tra cui Meta, Google e Microsoft, collabora per condividere tecnologie di moderazione dei contenuti terroristici. A livello governativo, l’ONU ha creato la piattaforma TCAP (Terrorist Content Analytics Platform), sostenuta da vari paesi tra cui il Regno Unito e la Spagna, che ha identificato decine di migliaia di indirizzi web con contenuti terroristi.
Tuttavia, il contrasto tra i moderatori e i propagandisti terroristici rimane sbilanciato. Produrre e diffondere contenuti risulta più facile e rapido rispetto alla loro individuazione e rimozione. Inoltre, l’apparizione di soluzioni personalizzate rende ancora più difficile la lotta contro l’uso malevolo dell’IA. Anche se l’AI Act europeo rappresenta un passo avanti nella regolamentazione, non ha ancora un impatto significativo su queste dinamiche.
L’IA è anche utilizzata nelle operazioni di contro-terrorismo. In Francia, dal 2015, i servizi di intelligence sfruttano la sorveglianza algoritmica per monitorare potenziali minacce terroristiche, analizzando dati comportamentali online. L’IA ha permesso, ad esempio, di individuare utenti in contatto con individui presenti in zone di guerra come Siria e Iraq o di rilevare contenuti propagandistici di Daesh sui social media.
L’utilizzo dell’IA in Francia si è esteso anche alla sorveglianza pubblica tramite la videosorveglianza algoritmica, autorizzata dalla “legge sui Giochi Olimpici” del 2023. Sebbene priva di tecnologie di riconoscimento facciale, la normativa ha sollevato preoccupazioni in merito alle possibili derive in ambito democratico.
In conclusione, l’IA rappresenta una sfida e un’opportunità. Se da un lato è difficile limitarne l’uso malevolo da parte di gruppi terroristici, dall’altro l’integrazione dell’IA nelle strategie di contro-terrorismo offre strumenti cruciali per prevenire e combattere il terrorismo. La vera sfida sarà trovare un equilibrio tra sicurezza e rispetto delle libertà individuali, come sottolineato da Laurent Nuñez, ex coordinatore nazionale del contro-terrorismo in Francia.

