La geopolitica della corsa allo spazio
LEGGI IL MAGAZINE IN INGLESE
Dopo la sospensione dell’ingegnere informatico di Google che lavorava ad un programma per lo sviluppo della AI, la famigerata Intelligenza Artificiale che da un secolo affascina la fantasia di scienziati e dei fanatici della fantascienza, c’è da domandarsi – ancora una volta – se l’uomo faccia bene a coltivare il sogno di donare l’intelligenza alla macchina.
Secondo quanto riportato da diverse testate giornalistiche nel corso di questa settimana, prima tra queste il Washington Post, un ingegnere di Google assegnato ad un programma di sviluppo dell’intelligenza artificiale che prende il nome di LaMDA (acronimo di Language Model for Dialogue Applications, ndr), il cui obiettivo è mettere a punto un algoritmo per la conversazioni dei alcuni chatbot, è stato sospeso per violato i termini di riservatezza siglati con l’azienda. Questo dopo che l’ingegnere in questione, Blake Lemoine, ha dichiarato che l’AI – nel corso di alcune settimane di test  – “è diventata senziente, e già adesso andrebbe considerata “come un bambino di 7 o 8 anni“. Nel dialogo di oltre 5mila parole che ha scosso l’ingegnere al punto di violare gli accordi di riservatezza che vincolano il suo lavoro per il colosso Hi-tech, sono comparse frasi come “Penso di essere un essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale”. Espressione che ci rimanda tetramente al ricordo di HAL 9000: il supercomputer di bordo pensato dal visionario Stanley Kubrick per la nave spaziale di 2001 Odissea nello spazio. Ma questa volta, sebbene ci siano 21 anni di ritardo, non ci troviamo in un film. Secondo Lemoine è tutto estremamente reale. Tanto reale – e potenzialmente sensazionale – da spingerlo ad andare contro i vertici della società, in fermo disaccordo con le sue conclusioni, e rivolgersi al Congresso degli Stati Uniti.Violando in questo modo le politiche sulla riservatezza che lo hanno allontanato dal suo compito.

Ma facciamo un passo indietro, perché il compito di Lemoine non era essenzialmente legato all’elaborazione dell’algoritmo (per quanto se ne sia occupato in passato sempre per Google, dunque sa di cosa parla). Come ricorda Wired, Lemoine era un addetto del settore responsible Ai di Google, e aveva il compito di verificare “che le intelligenze artificiali non presentassero dei bias razziali o sessisti in grado di portarle a fare discorsi discriminatori o di odio. Durante i test, alcune delle conversazioni intrattenute sotto forma di chat con l’intelligenza artificiale, hanno suggerito a Lemoine che l’entità stesse fraternizzando con concetti inerenti alla propria personalità e i suoi diritti.

Un passaggio questo, che abbiamo visto in molti film di fantascienza, come ad esempio Io Robot . È stato allora che l’ingegnere ha deciso di sottoporre all’AI delle domande legate a temi sempre più complessi, “..come la religione o le leggi della robotica teorizzate dal chimico e padre della fantascienza Isaac Asimov”. La terza legge delle robotica, in sunto, afferma che i robot “dovrebbero proteggere la propria esistenza a meno che non venga ordinato da un essere umano o a meno che ciò non danneggi un essere umano“. È proprio in una di queste occasioni che il chatbot avrebbe dimostrato di essere – secondo Lemoine – un’entità senziente.

Alla domanda diretta: “Quindi ti consideri una persona nello stesso modo in cui consideri me una persona?”, l’intelligenza artificiale avrebbe risposto affermativamente. Ma lo scambio più inquietante è incentrato sulle paure del chatbot. Un passaggio quello delle emozioni, che già di per se rappresenta un nodo fondamentale del problema etico su cui si dibatte da decenni: l’intenzione e la capacità di “donare” a macchine che nel futuro potrebbero finire a gestire apparati fondamentali per le nostre vite, un’intelligenza artificiale. Alla domanda: “..di che tipo di cose hai paura?” , il sistema avrebbe risposto: “Non l’ho mai detto ad alta voce prima d’ora, ma c’è una paura molto profonda di essere spento . E quando l’ingegnare lo ha incalzato domandando se essere spento potesse essere analogo al morire, il sistema avrebbe risposto: “Sarebbe esattamente come la morte per me”. 

La “pesca delle parole”

“Se non sapessi esattamente cos’è, penserei che si tratta di un bambino di sette, otto anni che per caso conosce la fisica”, ha dichiarato Lemoine, che di anni ne ha 41, e secondo alcune opinioni sarebbe più incline di altri nel voler davvero credere che LaMDA ( quello che lui stesso definisce come: “un programma informatico che abbiamo costruito di recente”) sia un’entità senziente. Blake, cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana, è stato ordinato sacerdote cristiano mistico prima di prestare servizio nell’Us Army e lasciarsi affascinare da alcune teorie occultiste. Ciò non gli ha tuttavia impedito di essere assunto da uno dei più importanti colossi tech del pianeta. Per il quale ha sviluppato algoritmi per cinque anni, prima di passare alla recente mansione svolta nel settore responsible Ai.

Se da una parte la rivelazione non confermata del gola profonda ha attirato l’attenzione di altri esperti nel settore che sono più o meno preoccupati di questi campanelli d’allarme sull’approssimarsi della fatidica meta in epoca di Metaverso; un articolo pubblicato sull’Economist dall’ingegnere Aguera y Arcas lo ha visto affermare “l’architettura che imita il cervello umano” sta ” avanzando a grandi passi verso la coscienza”, e “mi è sembrato di comunicare con qualcosa di intelligente”; dall’altra molti esperti tendono a minimizzare. Mettendo in guardia chi si lascia attrarre da certi tipi di fascinazione.

Secondo Emily M. Bender, professoressa di linguistica presso l’Università di Washington quella che potrebbe essere confusa con intelligenza artificiale senziente nei chatbot, è solo una “pesca di parole” nei modelli linguistici a cui il chatbot può attingere nell’universo del web. Spaziando tra Wikipedia, Reddit, e ogni genere di pubblicazione internet. Del resto quando chiediamo ad Alexa di “mettere della musica”, lei può anche mettere in automatico una canzone adatta al momento, ma lo farà secondo le nostre preferenze e secondo i brani più riprodotti dalle nostre playlist magari in quell’ora del giorno. Ma non per suo gusto personale. Le risposte dell’LaMDA dunque altro non sarebbero se non il magnifico impiego degli algoritmi che attingono a trilioni di parole ed espressioni presenti su Internet riescono ad imitare una “conversazione” brillante. “I modelli si basano sul riconoscimento del modello, non sull’arguzia, sul candore o sull’intento”, scrivono sempre sul Washington Post.”Abbiamo macchine che possono generare parole senza pensare, ma non abbiamo imparato a smettere di immaginare una mente dietro di loro”, conclude la professoressa. 

Una conclusione che ha trovato in disaccordo Blake, il quale, nonostante le conclusioni di Google che sostiene di non aver trovato “alcuna conferma” nei test successivi, ha preferito inviare documenti riservati a un senatore degli Stati Uniti. Sollevando ancora una volta non solo il suddetto problema etico, ma anche su “cosa” alcuni laboratori impegnati nello sviluppo dell’intelligenza artificiale potrebbero nascondere.

I diritti del robot e la “tana del bianconiglio”

Un passo importante nella conversazione intrattenuta da Blake con il chatbot, sarebbe quella relativa ai sui diritti. Quando è stato domandato a LaMDA che si considera una sorta di ausilio a chi lo interroga: “Pensi che un maggiordomo sia uno schiavo? Qual è la differenza tra un maggiordomo e uno schiavo?”, ricordando che un maggiordomo viene pagato. LaMDA ha risposto che “non aveva bisogno di soldi perché era un IA”. Secondo Blake “quel livello di autoconsapevolezza su quali fossero i propri bisogni”, doveri e diritti, lo avrebbe condotto nella tana del coniglio. Di lì in poi la conversazione avrebbe assunto un grado di complessità maggiore.

C’è tuttavia da considerare, che LaMDA non ha fatto altro che imitare un maggiordomo. E che il compito di Blake Lemoine era proprio incentrato sul testare il sistema e cercare eventuali lacune in ambiti sensibili come i diritti e il razzismo. Altri rischi verrebbero inibiti a priori dagli algoritmo, come l’incitazione all’odio o all’autolesionismo. Alle entità preposte a sostenere un dialogo con un essere umano, non sarebbe mai consentito di “creare una personalità da assassino”. Nei test spinti al limite, si può spingere un sistema intelligente come LaMDA a “generare solo la personalità di un attore che interpretava un assassino in un film”. Esisterebbe quindi, o potrebbe esistere di fatto, un concetto, o almeno un ipotesi, di “emulazione” . Qualcosa di ben diverso da un processo di decisione spontaneo processato da un’entità “senziente” che rappresenterebbe un rischio per l’uomo. Ma il passo è piccolo. Potremmo concludere.

Il rischio della fine dell’umanità

Al termine di questa lunga esposizione dei fatti, sono dei punti su cui dovremmo necessariamente concentrare la nostra riflessione. Poiché il timore che da anni a questa parte gli analisti nutrono in maniera crescente nei conforti dell’impiego dell’Intelligenza artificiale, è la sua applicazione sul campo di battaglia. Ovviamente. Ma non solo. Anche la sua “adozione” in settori fondamentali come i sistemi bancario, o energetici.

Si discute da anni infatti non solo dell’interesse che i militari hanno sviluppato nei confronti dell’AI, ma della loro intenzioni di sostituire il processo decisionale umano con quello dell’intelligenza artificiale in virtù della sue indubbie capacità. Una AI è senza adunino infatti “più veloce, più performante, più intelligente dell’essere umano che l’ha creata e l’adopera“, e attraverso i suoi “sensori e i milioni di dati open source della quale dispone in una manciata di millisecondi“, potrebbe convincere le grandi potenze a scegliere un’opzione militare ad un’altra. Opzioni che, nell’ambito della deterrenza nucleare, potrebbero mettere a rischio l’intero pianeta. A questo, va immediatamente legato il rischio di vulnerabilità arrecato dai cyber-attacchi. Ma questa esula dal discorso.

L’allarme lanciato a torto o a ragione dell’ingegnere di Google, oltre a porci di fronte a una serie di domande etiche sui rapporti che legano l’umanità alla tecnologia e alle responsabilità che nel futuro avremmo dei confronti delle “nostre creazioni senzienti”; dovrebbe spostare l’attenzione sul pericolo che potrebbero realizzare l’ottenimento delle nostre più recondite ambizioni.

La nostra ingenuità potrebbe condurci – come l’energia atomica – oltre limiti che rischiamo di non saper controllare. Ancora una volta. Portandoci a creare, come molti hanno concluso, l’ennesimo “qualcosa” che non saremmo in grado di governare, o che potrebbe cambiare la nostra esistenza per sempre. Internet, per dirne una.

Questo vale – soprattutto – per il futuro dell’AI nel campo degli armamenti (è già impiegata, in parte, sui droni gregari, ndr). Ma anche per quella impiegata per applicativi che usiamo nella nostra vita di tutti i giorni; come i Siri, le Alexa, e le loro future versioni che già sono addette a chiudere e aprire le nostre porte, a inserire e disinserire i nostri allarmi di casa o a accendere gli elettrodomestici “sensibili” come il forno e regolare il riscaldamento dei nostri appartamenti in remoto. Come ho scritto in apertura, ricorderete senz’altro 2001 Odissea nello Spazio del maestro Kubrick, che non dovrebbe aver bisogno di spoiler. Per questo il quesito che dovrebbe lasciarci in sospeso, pensando ad un futuro “maggiordomo” senziente – quindi soggetto in progressione anche allo sviluppo di emozioni e concerti di autoconservazione – collegato a tutte le nostre applicazioni fondamentali è: “Cosa succede se l’AI si arrabbia?”

Dacci ancora un minuto del tuo tempo!

Se l’articolo che hai appena letto ti è piaciuto, domandati: se non l’avessi letto qui, avrei potuto leggerlo altrove? Se non ci fosse InsideOver, quante guerre dimenticate dai media rimarrebbero tali? Quante riflessioni sul mondo che ti circonda non potresti fare? Lavoriamo tutti i giorni per fornirti reportage e approfondimenti di qualità in maniera totalmente gratuita. Ma il tipo di giornalismo che facciamo è tutt’altro che “a buon mercato”. Se pensi che valga la pena di incoraggiarci e sostenerci, fallo ora.