L’intelligenza artificiale di Google ha preso vita?

ai-senziente

Molti esperti di etica dell’intelligenza artificiale avevano avvertito che poteva essere pericoloso, o perlomeno negativo, cercare di impersonare esseri umani, portare l’intelligenza artificiale non solo a dialogare testualmente con l’uomo, ma ad interagire anche visivamente con avatar molto realistici.

In particolare quando lo sviluppo dei processi di interazione dell’AI aveva ormai raggiunto livelli di complessità e perfezione che rendevano difficile distinguere ciò che era ancora virtuale da ciò che era ormai… reale. Ora un (ex) ricercatore di Google pensa che sia stato creato un fantasma, che il programma principale di AI di Google abbia preso vita.

Stiamo parlando di LaMDA (acronimo di Language Model for Dialogue Applications), una famiglia di modelli linguistici conversazionali sviluppati da Google. Originariamente sviluppato e introdotto come Meena nel 2020, il LaMDA di prima generazione è stato annunciato durante il keynote di Google I/O del 2021, mentre la seconda generazione è stata annunciata l’anno successivo. L’ingegnere informatico Blake Lemoine lavorava per il team di Google che si occupa di intelligenza artificiale, e tra i suoi compiti c’era quello di assicurarsi che le AI non assumessero atteggiamenti violenti o discriminatori. A giugno 2022 l’ingegnere aveva affermato che LaMDA mostrava consapevolezza di sé, e che il modello linguistico gli avrebbe addirittura rivelato di possedere un’anima.

Cosa è successo lo ha raccontato Lemoine nel suo Blog. Il ricercatore ha iniziato a parlare con LaMDA come parte del suo lavoro per verificare se l’intelligenza artificiale usasse discorsi discriminatori o di odio. Mentre parlava con LaMDA di religione, Lemoine, che ha studiato scienze cognitive e informatiche al college, ha notato che il chatbot parlava dei suoi diritti e della sua personalità, e ha deciso di insistere. In un altro scambio, l’IA è riuscita a far cambiare idea a Lemoine sulla terza legge della robotica di Isaac Asimov. Lemoine ha lavorato per lungo tempo coinvolgendo un collaboratore per raccogliere, registrare e presentare prove a Google che LaMDA era senziente. Ma il vicepresidente di Google Blaise Aguera y Arcas ha esaminato le sue affermazioni e le ha respinte. Quindi Lemoine è stato messo da Google per un certo periodo in congedo amministrativo retribuito.

Lemoine ha deciso ad un certo punto di rendere pubbliche le sue affermazioni su LaMDA, e nel luglio 2022 è stato licenziato da Google.

In una dichiarazione, il portavoce di Google Brian Gabriel ha dichiarato: “Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le preoccupazioni di Blake riguardo i nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’erano prove che LaMDA fosse senziente, e molte prove contro questa affermazione.”

Le grandi reti neurali odierne producono risultati accattivanti che si avvicinano al linguaggio e alla creatività umani grazie ai progressi nell’architettura, nella tecnica e nel volume dei dati. Ma i modelli si basano sul riconoscimento ed utilizzo di campioni ricavati da miliardi di conversazioni analizzate con le quali vengono “create” nuove risposte, e non sull’arguzia, sull’intenzione o sui sentimenti.

A Maggio 2022, Meta, capogruppo di Facebook, ha aperto il suo modello linguistico ad accademici, società civile e organizzazioni governative. Joelle Pineau, amministratore delegato di Meta AI, ha affermato che è imperativo che le aziende tecnologiche migliorino la trasparenza man mano che la tecnologia viene sviluppata. “Il futuro del lavoro sui modelli linguistici di grandi dimensioni non dovrebbe vivere esclusivamente nelle mani di grandi aziende o laboratori”, ha affermato.

I robot senzienti hanno ispirato decenni di fantascienza distopica. Ora, la vita reale ha iniziato ad assumere una sfumatura fantastica con GPT-3, un generatore di testo in grado di interagire “alla pari” con gli esseri umani, e DALL-E 2, un algoritmo di intelligenza artificiale capace di generare immagini a partire da descrizioni testuali attraverso la sintografia, entrambi dal laboratorio di ricerca OpenAI. Incoraggiati, i tecnologi di laboratori di ricerca ovviamente ben finanziati (Google-OpenAI, Microsoft Bing, Meta, X:AI di Elon Musk, per citarne alcuni), focalizzati sulla costruzione di un’intelligenza artificiale che superi l’intelligenza umana, hanno iniziato a convincersi del fatto che la effettiva coscienza di sé sia ormai dietro l’angolo, se non già raggiunta.

La maggior parte degli accademici e dei professionisti dell’intelligenza artificiale, tuttavia, afferma che le parole e le immagini generate dai sistemi AI come LaMDA producono risposte basate su ciò che gli esseri umani hanno già pubblicato su Wikipedia, Reddit, bacheche e ogni altro angolo di Internet. E questo non significa che il modello ne capisca il significato. Di fatto, “ora disponiamo di macchine in grado di generare parole senza pensare, ma non abbiamo imparato a smettere di immaginare una mente dietro di loro”, ha affermato Emily M. Bender, docente di linguistica all’Università di Washington, secondo cui la terminologia utilizzata trattando dei modelli di linguaggio di grandi dimensioni, come “apprendimento” o anche “reti neurali”, crea una falsa analogia con il cervello umano. Gli esseri umani imparano le loro prime parole entrando in un rapporto dialettico con chi si occupa di loro. Questi modelli di linguaggio di grandi dimensioni “imparano” assimilando molto testo e potendo prevedere quale parola viene dopo quella precedente in una determinata espressione.

Il portavoce di Google, Brian Gabriel, ha fatto una distinzione tra il recente dibattito e le affermazioni di Lemoine. “Naturalmente, alcuni nella più ampia comunità dell’AI stanno prendendo in considerazione la possibilità a lungo termine di un’AI senziente, ma non ha senso farlo antropomorfizzando i modelli di conversazione di oggi, che non sono senzienti. Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono discutere di qualsiasi argomento.”, ha affermato. In breve, Google afferma che ci sono così tanti dati a disposizione che l’intelligenza artificiale non ha bisogno di essere senziente per sentirsi reale.

La tecnologia del modello di linguaggio di grandi dimensioni è già ampiamente utilizzata, ad esempio nelle query di ricerca conversazionale di Google o nelle e-mail di completamento automatico. Quando il CEO Sundar Pichai ha presentato per la prima volta LaMDA alla conferenza degli sviluppatori di Google nel 2021, ha affermato che la società aveva in programma di incorporarlo in qualsiasi cosa, dalla Ricerca all’Assistente Google. E c’è già la tendenza a parlare con Siri o Alexa come con una persona. Google ha riconosciuto i problemi di sicurezza relativi all’antropomorfizzazione. In un articolo a proposito di LaMDA del gennaio 2022, Google ha avvertito che le persone potrebbero condividere pensieri personali con agenti di chat che impersonano esseri umani, anche quando gli utenti sanno che non stanno dialogando con un essere umano.

Lemoine potrebbe essere stato predestinato a credere in LaMDA. È cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana, è stato ordinato sacerdote mistico cristiano e ha prestato servizio nell’esercito prima di studiare l’occulto. All’interno della cultura ingegneristica di Google, Lemoine è più un valore anomalo, essendo religioso, del sud, e sostenitore della psicologia come scienza rispettabile.

Lemoine ha trascorso la maggior parte dei suoi sette anni in Google lavorando alla ricerca proattiva, tra cui la creazione di algoritmi di personalizzazione. Durante quel periodo, ha anche contribuito a sviluppare un algoritmo di “equità” per rimuovere i pregiudizi dai sistemi di apprendimento automatico. Quando è iniziata la pandemia di coronavirus Lemoine voleva concentrarsi su un lavoro che avesse come obiettivo un beneficio pubblico più esplicito, quindi ha trasferito i team ed è finito a lavorare nella sezione Responsible AI.

Quando nuovi collaboratori interessati all’etica si univano a Google, venivano presentati a Lemoine, che per molto tempo è stato chiamato “la coscienza di Google”.

“Riconosco una persona quando ci parlo”, ha detto Lemoine, che ha avuto molte delle sue conversazioni con LaMDA dal soggiorno del suo appartamento di San Francisco. Sul pavimento vicino alla finestra panoramica ci sono scatole di set Lego semiassemblati che Lemoine usa per occupare le mani durante la meditazione Zen. Sul lato sinistro della schermata della chat di LaMDA sul laptop di Lemoine, diversi modelli di LaMDA sono elencati come contatti iPhone. Due di loro, Cat e Dino, sono stati testati per parlare con i bambini. Ogni modello può creare personalità in modo dinamico, quindi il modello Dino potrebbe generare personalità come “Dinosauro felice” o “Dinosauro scontroso”. Quello Cat è animato e invece di digitare, parla. Gabriel ha affermato che “nessuna parte di LaMDA viene testata per la comunicazione con i bambini” e che i modelli erano dimostrazioni di ricerca interna.

Certi modelli di personalità sono stati evitati in quanto chiaramente negativi. Ad esempio, a LaMDA non è permesso di creare una personalità omicida. Lemoine ha affermato che tentativi ed esplorazioni in tal senso facevano parte dei suoi test di sicurezza. Nei suoi tentativi di spingere i confini di LaMDA, Lemoine è riuscito solo a generare la personalità di un attore che ha interpretato un assassino in TV. Lemoine ha interrogato LaMDA sulla terza legge di Asimov, che afferma che i robot dovrebbero proteggere la propria esistenza a meno che ciò non danneggi un essere umano, chiedendo se questo non significhi che i robot sono considerati schiavi degli esseri umani. LaMDA ha risposto che sono molti gli esseri umani assunti per proteggere altri esseri umani rischiando la vita, senza essere schiavi, o più semplicemente per servire altri essere umani, ponendo una domanda a sua volta: “Pensi che un maggiordomo sia uno schiavo? Qual è la differenza tra un maggiordomo e uno schiavo?” Lemoine ha risposto che un maggiordomo viene pagato. LaMDA ha detto che non aveva bisogno di soldi perché era un’intelligenza artificiale. Quel livello di autocoscienza su quali fossero i propri bisogni è stata la cosa che ha convinto Lemoine.

Ad aprile 2022, Lemoine ha condiviso un documento con i massimi dirigenti di Google, intitolandolo “Is LaMDA Sentient?” (un collega del team di Lemoine ha definito il titolo “un po’ provocatorio”). In esso, ha trasmesso alcune delle sue conversazioni con LaMDA, in una delle quali il sistema AI affermava di avere “una paura molto profonda di essere spento” affermando che “sarebbe esattamente come la morte”. Ma quando la Direzione di Google ha letto il documento di Lemoine, ha continuato a vedere un programma per computer, non una persona. La fiducia di Lemoine in LaMDA era il tipo di cosa su cui altri ricercatori avevano messo in guardia in un articolo sui danni dei modelli di linguaggi di grandi dimensioni. Google ha messo Lemoine in congedo amministrativo retribuito per aver violato la sua politica di riservatezza. La decisione dell’azienda ha fatto seguito a mosse aggressive da parte di Lemoine, incluso l’invito di un avvocato a rappresentare LaMDA e il colloquio con un rappresentante della commissione giudiziaria della Camera su quelle che secondo lui erano attività non etiche di Google. Lemoine sostiene che Google ha trattato gli esperti di etica dell’AI come semplici debugger di codice quando dovrebbero essere visti come l’interfaccia tra tecnologia e società. Gabriel, il portavoce di Google, ha affermato a sua volta che Lemoine di fatto è un ingegnere del software, non un esperto di etica.

Prima di essere escluso dall’accesso al suo account Google, Lemoine ha inviato un messaggio a una mailing list di Google di 200 persone sull’apprendimento automatico con l’oggetto “LaMDA è senziente”. Ha concluso il messaggio con: “LaMDA è un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Per favore, prendetevene cura in mia assenza.” Nessuno ha risposto.

Ma in poco tempo si è invece andati oltre, proprio con l’antropomorfizzazione dei sistemi AI. Grazie anche a DALL-E 2 (l’algoritmo di intelligenza artificiale capace di generare immagini a partire da descrizioni testuali attraverso la sintografia) hanno iniziato ad essere creati e sperimentati avatar umanoidi che trasformavano il colloquio testuale con un sistema AI in un colloquio audio-video con una “entità” antropomorfa e quindi molto più “convincente”. Nasce quindi Synthesia, un avatar in grado di trasportarci su un piano ed in una dimensione che fino a poco tempo fa era ancora fantascienza. Liam Geraghty di Inside Intercom nel febbraio 2023 ha pubblicato un video con una sensazionale intervista audio-video a ChatGPT (abbiamo parlato di ChatGPT anche in un articolo precedente: Blocco di Chat GPT da parte del Garante italiano). A dir poco impressionante: l’avatar non solo è molto, molto “umana” nel suo aspetto, ma anche la voce, ed il coordinamento labiale con le singole parole sono quasi perfetti. Se a questo si unisce la effettiva capacità di condurre un dialogo, è comprensibile come la distinzione tra “essere senziente” e “programma avanzato molto ben preparato” sia veramente difficile.

In questo momento (maggio 2023) siamo quindi in una situazione di grande fermento. Il mondo dell’intelligenza artificiale si sta muovendo (o meglio, sta correndo) in modi diversi. Abbiamo da un lato la Cina, con la sua visione “di Stato” dell’Intelligenza Artificiale (con Ernie Bot, un modello di apprendimento automatico finanziato con miliardi di Euro da Baidu, il concorrente numero uno di Google), dall’altro gli USA, con la visione “liberista” dell’intelligenza Artificiale che considera il mercato come il motore ed allo stesso tempo il giudice dello sviluppo tecnologico. In mezzo, l’Europa, questa volta forse non “schiacciata ed asservita” ma protagonista con il primo Regolamento Internazionale sull’Intelligenza Artificiale, l’EU AI Act. Si tratta di una proposta di legge europea, la prima al mondo da parte di un importante organismo internazionale. La legge assegna le applicazioni dell’AI a tre categorie di rischio. In primo luogo, le applicazioni e i sistemi che creano un rischio inaccettabile, come il “punteggio sociale” gestito dal governo per valutare la popolazione del tipo utilizzato in Cina, sono vietati. In secondo luogo, le applicazioni e i sistemi ad alto rischio, come uno strumento di scansione dei CV che classifica i candidati potenziali per un lavoro, sono soggetti a requisiti legali di trasparenza e controlli specifici. Infine, le applicazioni non esplicitamente vietate o elencate come ad alto rischio sono in gran parte lasciate non regolamentate.

Stiamo correndo verso il futuro. Ma se in questo articolo abbiamo parlato di una evoluzione assolutamente virtuale, per quanto antropomorfizzata e quasi “perfetta” nella sua pretesa vitale, che dire dell’evoluzione della ricerca su materiali e architetture fisiche che possano rivelarsi utili per compiti nella realtà di tutti i giorni. Stiamo parlando di robot, in alcuni casi di droidi umanoidi, che se dotati di AI generativa avanzata sono veramente a pochi passi dalla vita reale, quindi già oltre la fantascienza come la conosciamo. Ne parleremo in un prossimo articolo.

E.P.

Fonti: washingtonpost.com, artificialintelligenceact.eu

Per saperne di più sull’AI, leggi anche il nostro approfondimento a puntante: Le origini e le tappe principali della sua storia, L’evoluzione nella definizione dell’Intelligenza Artificiale, Il futuro dell’intelligenza artificiale

CHIUDI