L’era delle guerre ibride combattute attraverso le intelligenze artificiali è iniziata. Non nel 2023, l’anno di ChatGPT, ma nel 1965, l’anno di Politica. L’era delle guerre, non soltanto ibride, combattute dalle intelligenze artificiali è alle porte.
Gli investimenti nella produzione di chatbot maligni e nell’hackeraggio degli assistenti virtuali intelligenti sono giĂ in corso e daranno i primi risultati a breve. Gli investimenti nelle capacitĂ artistiche delle intelligenze artificiali, invece, stanno giĂ dando frutti: i falsi profondi, o deepfake.
I falsi profondi sono audio, foto e videomontaggi di altissima qualità , quasi indistinguibili dai contenuti reali, e hanno una caratteristica in comune: la mente che li partorisce è artificiale. Incredibilmente verosimili già oggi, tanto da richiedere in alcuni casi un fact checking, un domani potrebbero essere il veicolo di guerre informative e operazioni psicologiche al massimo grado.
Breve storia dei deepfake
I falsi fotografici esistono da quando è stata inventata la fotografia, forse perchĂ© l’inganno è con l’Uomo dai tempi dell’Eden, e hanno storicamente rappresentato un potente strumento al servizio della propaganda. Se la prima fotografia è del 1826, i primi fotomontaggi per scopi politici e militari risalgono alla guerra civile americana.
L’avanzamento nelle arti visuali e nelle tecnologie fotografiche ha comportato il miglioramento progressivo degli hoax producibili, sia dal nulla sia da un’immagine (vera) di base, fino alla nascita dei cosiddetti falsi profondi a cavallo tra gli anni Novanta e il Duemila.
Deepfake è il termine col quale si fa riferimento a prodotti fotografici e videografici, ma anche audio, realizzati da intelligenze artificiali basate sull’apprendimento profondo e in possesso di capacitĂ di clonazione digitale e immaginazione.
Sebbene il primo utilizzo del neologismo sia datato 2017, scaturente dall’unione delle parole deep learning e fake (let. “i falsi dell’apprendimento profondo”), l’origine dei falsi profondi risale alla fine degli anni Novanta, periodo dello sviluppo dei primi programmi di rianimazione facciale, e la commercializzazione di applicazioni per tutti, come Face2Face, precede l’ingresso del termine nei vocabolari.
Il boom dei falsi profondi
Il 2017 è l’anno della fioritura dei falsi profondi, dopo una germinazione durata un ventennio. La proliferazione dei deepfake, realizzati da professionisti principalmente per scopi commerciali e politici, ma anche da amatori su siti come Reddit e 4Chan, spinge il loro ingresso nei dizionari.
L’ultimo triennio degli anni Dieci segna la popolarizzazione dei falsi profondi, spianando la strada al loro ingresso dirompente in una pluralitĂ di campi: dalla pubblicitĂ all’intrattenimento. Sono gli anni delle prime applicazioni-per-tutti in grado di garantire una discreta qualitĂ , come FakeApp, Faceswap e Zao, e delle prime sperimentazioni nella musica e nella moda.
PiĂą che le potenzialitĂ in termini di disinformazione dei falsi profondi, comunque intuibili e oggetto di un primo dibattito negli Stati Uniti nel 2019, a preoccupare le autoritĂ in questi anni è il loro utilizzo per scopi diffamatori, frodatori e/o di intrattenimento maligno. All’epoca, invero, Deeptrace stimava che il 96% dei falsi profondi in rete fosse di carattere pornografico, la maggior parte dei quali riguardanti celebritĂ , e che avesse ottenuto all’incirca 134 milioni di visualizzazioni.
La decade dei falsi profondi
Gli anni Venti saranno indicati dai posteri come il (primo) decennio dei falsi profondi, una nuova dinastia di strumenti disinformativi votata ad alimentare ondate periodiche di confusione collettiva, cioè disinfodemie, in particolare nelle agorà virtuali degli stati liberaldemocratici.
La decade si è aperta con la commercializzazione di applicazioni mobili di qualitĂ superiore, con la resurrezione digitale di defunti celebri sotto forma di ologrammi, combinando deepfake e motion capture, come Robert Kardashian, John Lennon ed Elvis Presley, e con lo sviluppo dei primi programmi in grado di clonare la voce umana dopo soltanto cinque secondi di ascolto. Sullo sfondo, il proliferare di app e siti gratuiti, ergo per tutti, dall’offerta vasta e variegata: deepfake fotografici, deepfake videografici, deepfake multimediali, deepfake con celebritĂ , alterazioni fotografiche a mezzo di filtri realistici.
Il 2022-23, in particolare, è stato il biennio dei deepfake politici: dal baciamano di Vladimir Putin a Xi Jinping ai video sulla guerra in Ucraina riguardanti entrambi gli schieramenti. Crescentemente verosomiglianti, anche quando palesemente surreali – questo è il problema –, i deepfake di nuova generazione stanno dilatando le tempistiche di lavoro degli addetti alla verifica dei fatti, obbligati ormai a mescolare tecniche di analisi dell’immagine/della voce e intelligence delle fonti aperte – lavoro che non tutti sono in grado di svolgere –, e minacciano di rendere il falso indistinguibile dal vero.
Se negli anni precedenti i timori legati ai falsi profondi erano rimasti circoscritti alla pornografia, anche alla luce dei numeri, il crescendo di materiale a carattere disinformativo prodotto e distribuito in rete ha comportato una rivalutazione delle prioritĂ dei legislatori. Evidenza dell’ingresso definitivo dei falsi profondi, insieme agli altri figli dell’intelligenza artificiale, come i chatbot, nel repertorio dei guerrieri ibridi.
Tutti i rischi dei super-falsi
I sistemi di apprendimento alla base delle tecnologie per la produzione di falsi profondi utilizzano reti neurali artificiali che per natura, ovvero il possesso di autocodificatori o una struttura GAN (Generative Adversarial Network), sono improntate all’autoperfezionamento. Spiegato altrimenti: trattasi di sistemi di apprendimento in grado di sfornare prodotti di qualitĂ crescente, perchĂ© metabolizzano errori e imperfezioni seguendo una logica di miglioramento continuativo incrementale. Caratteristiche che spiegano perchĂ© la realisticitĂ dei superfalsi aumenti costantemente e rapidamente.
I super-falsi saranno la prossima frontiera della disinformazione e dello spionaggio. Prodotti capaci di dar luogo a potenti e ottundenti ondate disinformative, accelerando la sepoltura delle tradizionali operazioni psico-informative da parte delle operazioni cognitive, e di facilitare il lavoro degli 007, date le ricadute dei deepfake multimediali per l’impersonazione via social. Interferenze elettorali, furti di documenti classificati, incidenti diplomatici, semina di zizzania, ricatti e scandali a portata di clic.
Le potenze piĂą lungimiranti hanno iniziato ad investire in ricerca e sviluppo di tecnologie per l’individuazione rapida dei superfalsi e a produrre legislazioni ad hoc per limitarne la diffusione e per punirne l’utilizzo per scopi malevoli. In entrambi i casi, comunque, si tratterĂ di palliativi: le reti generative avversarie autoevolvono in continuazione, in quanto pensate per sconfiggere i rilevatori, e leggi nazionali non possono contrastare efficacemente dei fenomeni nati su spazi deterritorializzati come l’Internet e il Metaverso.
I superfalsi e le democrazie
I superfalsi politici stanno giĂ dilagando negli Stati Uniti, dove stanno esacerbando le guerre culturali e lo scontro tra Repubblicani e Democratici, fra voci generate artificialmente, dichiarazioni scritte inesistenti e video manipolati.
Dietro il boom dei superfalsi politici negli States, molte volte, non ci sono fattorie di troll con alle spalle dei bilanci statali ai quali attingere, ma amatori, blogger, hacktivisti e influencer. Ed è lecito chiedersi se quanto accade negli Stati Uniti sia il preludio di una tendenza destinata a invadere l’intero Occidente, e in esteso le agorĂ virtuali delle democrazie, e cosa succederĂ quando i superfalsi diventeranno lo strumento prediletto per le operazioni di influenza di potenze, guerriglieri e terroristi.
Il futuro delle democrazie alle prese con l’emergente sfida delle guerre combattute attraverso le intelligenze artificiali non è, comunque, cupo come potrebbe sembrare. Limitare e contrattaccare dovrebbero essere le parole d’ordine delle strategie contro i falsi profondi. Limitarne la diffusione – controlli, grandi muraglie digitali, pene severe, sanzioni – e il potenziale maligno – investendo nel pensiero critico e nello scetticismo attivo delle masse. E contrattaccare – una campagna cognitiva ad alto impatto basata, tra le altre cose, su deepfake politici, potrebbe spingere un popolo sotto dittatura alla ribellione? –, affinchĂ© chi di deepfake ferisca, di deepfake perisca.