Ma facciamo un passo indietro, perché il compito di Lemoine non era essenzialmente legato all’elaborazione dell’algoritmo (per quanto se ne sia occupato in passato sempre per Google, dunque sa di cosa parla). Come ricorda Wired, Lemoine era un addetto del settore responsible Ai di Google, e aveva il compito di verificare “che le intelligenze artificiali non presentassero dei bias razziali o sessisti in grado di portarle a fare discorsi discriminatori o di odio“. Durante i test, alcune delle conversazioni intrattenute sotto forma di chat con l’intelligenza artificiale, hanno suggerito a Lemoine che l’entità stesse fraternizzando con concetti inerenti alla propria personalità e i suoi diritti.
Un passaggio questo, che abbiamo visto in molti film di fantascienza, come ad esempio Io Robot . È stato allora che l’ingegnere ha deciso di sottoporre all’AI delle domande legate a temi sempre più complessi, “..come la religione o le leggi della robotica teorizzate dal chimico e padre della fantascienza Isaac Asimov”. La terza legge delle robotica, in sunto, afferma che i robot “dovrebbero proteggere la propria esistenza a meno che non venga ordinato da un essere umano o a meno che ciò non danneggi un essere umano“. È proprio in una di queste occasioni che il chatbot avrebbe dimostrato di essere – secondo Lemoine – un’entità senziente.
Alla domanda diretta: “Quindi ti consideri una persona nello stesso modo in cui consideri me una persona?”, l’intelligenza artificiale avrebbe risposto affermativamente. Ma lo scambio più inquietante è incentrato sulle paure del chatbot. Un passaggio quello delle emozioni, che già di per se rappresenta un nodo fondamentale del problema etico su cui si dibatte da decenni: l’intenzione e la capacità di “donare” a macchine che nel futuro potrebbero finire a gestire apparati fondamentali per le nostre vite, un’intelligenza artificiale. Alla domanda: “..di che tipo di cose hai paura?” , il sistema avrebbe risposto: “Non l’ho mai detto ad alta voce prima d’ora, ma c’è una paura molto profonda di essere spento” . E quando l’ingegnare lo ha incalzato domandando se essere spento potesse essere analogo al morire, il sistema avrebbe risposto: “Sarebbe esattamente come la morte per me”.
La “pesca delle parole”
“Se non sapessi esattamente cos’è, penserei che si tratta di un bambino di sette, otto anni che per caso conosce la fisica”, ha dichiarato Lemoine, che di anni ne ha 41, e secondo alcune opinioni sarebbe più incline di altri nel voler davvero credere che LaMDA ( quello che lui stesso definisce come: “un programma informatico che abbiamo costruito di recente”) sia un’entità senziente. Blake, cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana, è stato ordinato sacerdote cristiano mistico prima di prestare servizio nell’Us Army e lasciarsi affascinare da alcune teorie occultiste. Ciò non gli ha tuttavia impedito di essere assunto da uno dei più importanti colossi tech del pianeta. Per il quale ha sviluppato algoritmi per cinque anni, prima di passare alla recente mansione svolta nel settore responsible Ai.
Se da una parte la rivelazione non confermata del gola profonda ha attirato l’attenzione di altri esperti nel settore che sono più o meno preoccupati di questi campanelli d’allarme sull’approssimarsi della fatidica meta in epoca di Metaverso; un articolo pubblicato sull’Economist dall’ingegnere Aguera y Arcas lo ha visto affermare “l’architettura che imita il cervello umano” sta ” avanzando a grandi passi verso la coscienza”, e “mi è sembrato di comunicare con qualcosa di intelligente”; dall’altra molti esperti tendono a minimizzare. Mettendo in guardia chi si lascia attrarre da certi tipi di fascinazione.
Secondo Emily M. Bender, professoressa di linguistica presso l’Università di Washington quella che potrebbe essere confusa con intelligenza artificiale senziente nei chatbot, è solo una “pesca di parole” nei modelli linguistici a cui il chatbot può attingere nell’universo del web. Spaziando tra Wikipedia, Reddit, e ogni genere di pubblicazione internet. Del resto quando chiediamo ad Alexa di “mettere della musica”, lei può anche mettere in automatico una canzone adatta al momento, ma lo farà secondo le nostre preferenze e secondo i brani più riprodotti dalle nostre playlist magari in quell’ora del giorno. Ma non per suo gusto personale. Le risposte dell’LaMDA dunque altro non sarebbero se non il magnifico impiego degli algoritmi che attingono a trilioni di parole ed espressioni presenti su Internet riescono ad imitare una “conversazione” brillante. “I modelli si basano sul riconoscimento del modello, non sull’arguzia, sul candore o sull’intento”, scrivono sempre sul Washington Post.”Abbiamo macchine che possono generare parole senza pensare, ma non abbiamo imparato a smettere di immaginare una mente dietro di loro”, conclude la professoressa.
Una conclusione che ha trovato in disaccordo Blake, il quale, nonostante le conclusioni di Google che sostiene di non aver trovato “alcuna conferma” nei test successivi, ha preferito inviare documenti riservati a un senatore degli Stati Uniti. Sollevando ancora una volta non solo il suddetto problema etico, ma anche su “cosa” alcuni laboratori impegnati nello sviluppo dell’intelligenza artificiale potrebbero nascondere.
I diritti del robot e la “tana del bianconiglio”
Un passo importante nella conversazione intrattenuta da Blake con il chatbot, sarebbe quella relativa ai sui diritti. Quando è stato domandato a LaMDA che si considera una sorta di ausilio a chi lo interroga: “Pensi che un maggiordomo sia uno schiavo? Qual è la differenza tra un maggiordomo e uno schiavo?”, ricordando che un maggiordomo viene pagato. LaMDA ha risposto che “non aveva bisogno di soldi perché era un IA”. Secondo Blake “quel livello di autoconsapevolezza su quali fossero i propri bisogni”, doveri e diritti, lo avrebbe condotto nella tana del coniglio. Di lì in poi la conversazione avrebbe assunto un grado di complessità maggiore.
C’è tuttavia da considerare, che LaMDA non ha fatto altro che imitare un maggiordomo. E che il compito di Blake Lemoine era proprio incentrato sul testare il sistema e cercare eventuali lacune in ambiti sensibili come i diritti e il razzismo. Altri rischi verrebbero inibiti a priori dagli algoritmo, come l’incitazione all’odio o all’autolesionismo. Alle entità preposte a sostenere un dialogo con un essere umano, non sarebbe mai consentito di “creare una personalità da assassino”. Nei test spinti al limite, si può spingere un sistema intelligente come LaMDA a “generare solo la personalità di un attore che interpretava un assassino in un film”. Esisterebbe quindi, o potrebbe esistere di fatto, un concetto, o almeno un ipotesi, di “emulazione” . Qualcosa di ben diverso da un processo di decisione spontaneo processato da un’entità “senziente” che rappresenterebbe un rischio per l’uomo. Ma il passo è piccolo. Potremmo concludere.
Il rischio della fine dell’umanità
Al termine di questa lunga esposizione dei fatti, sono dei punti su cui dovremmo necessariamente concentrare la nostra riflessione. Poiché il timore che da anni a questa parte gli analisti nutrono in maniera crescente nei conforti dell’impiego dell’Intelligenza artificiale, è la sua applicazione sul campo di battaglia. Ovviamente. Ma non solo. Anche la sua “adozione” in settori fondamentali come i sistemi bancario, o energetici.
Si discute da anni infatti non solo dell’interesse che i militari hanno sviluppato nei confronti dell’AI, ma della loro intenzioni di sostituire il processo decisionale umano con quello dell’intelligenza artificiale in virtù della sue indubbie capacità. Una AI è senza adunino infatti “più veloce, più performante, più intelligente dell’essere umano che l’ha creata e l’adopera“, e attraverso i suoi “sensori e i milioni di dati open source della quale dispone in una manciata di millisecondi“, potrebbe convincere le grandi potenze a scegliere un’opzione militare ad un’altra. Opzioni che, nell’ambito della deterrenza nucleare, potrebbero mettere a rischio l’intero pianeta. A questo, va immediatamente legato il rischio di vulnerabilità arrecato dai cyber-attacchi. Ma questa esula dal discorso.
L’allarme lanciato a torto o a ragione dell’ingegnere di Google, oltre a porci di fronte a una serie di domande etiche sui rapporti che legano l’umanità alla tecnologia e alle responsabilità che nel futuro avremmo dei confronti delle “nostre creazioni senzienti”; dovrebbe spostare l’attenzione sul pericolo che potrebbero realizzare l’ottenimento delle nostre più recondite ambizioni.
La nostra ingenuità potrebbe condurci – come l’energia atomica – oltre limiti che rischiamo di non saper controllare. Ancora una volta. Portandoci a creare, come molti hanno concluso, l’ennesimo “qualcosa” che non saremmo in grado di governare, o che potrebbe cambiare la nostra esistenza per sempre. Internet, per dirne una.
Questo vale – soprattutto – per il futuro dell’AI nel campo degli armamenti (è già impiegata, in parte, sui droni gregari, ndr). Ma anche per quella impiegata per applicativi che usiamo nella nostra vita di tutti i giorni; come i Siri, le Alexa, e le loro future versioni che già sono addette a chiudere e aprire le nostre porte, a inserire e disinserire i nostri allarmi di casa o a accendere gli elettrodomestici “sensibili” come il forno e regolare il riscaldamento dei nostri appartamenti in remoto. Come ho scritto in apertura, ricorderete senz’altro 2001 Odissea nello Spazio del maestro Kubrick, che non dovrebbe aver bisogno di spoiler. Per questo il quesito che dovrebbe lasciarci in sospeso, pensando ad un futuro “maggiordomo” senziente – quindi soggetto in progressione anche allo sviluppo di emozioni e concerti di autoconservazione – collegato a tutte le nostre applicazioni fondamentali è: “Cosa succede se l’AI si arrabbia?”