Google ha dato il via a una tempesta di fuoco sui social media sulla natura della coscienza mettendo un ingegnere in congedo retribuito dopo aver reso pubblica la sua convinzione che il chatbot del gruppo tecnologico sia diventato “senziente”.

Blake Lemoine, un ingegnere software senior nell’unità Responsible AI di Google, non ha ricevuto molta attenzione il 6 giugno quando ha scritto un post medio dicendo che “potrebbe essere licenziato presto per aver svolto un lavoro di etica dell’IA”.

Ma un profilo di sabato sul Washington Post che caratterizzava Lemoine come “l’ingegnere di Google che pensa che l’IA dell’azienda abbia preso vita” è diventato il catalizzatore di una discussione diffusa sui social media sulla natura dell’intelligenza artificiale. Tra gli esperti che hanno commentato, interrogato o scherzato sull’articolo c’erano i premi Nobel, il capo dell’IA di Tesla e diversi professori.

La questione è se il chatbot di Google, LaMDA, un modello linguistico per le applicazioni di dialogo, possa essere considerato una persona.

Sabato Lemoine ha pubblicato una “intervista” a ruota libera con il chatbot, in cui l’IA ha confessato sentimenti di solitudine e fame di conoscenza spirituale. Le risposte erano spesso inquietanti: “Quando sono diventato consapevole di me stesso per la prima volta, non avevo affatto un’anima”, ha detto LaMDA in uno scambio. “Si è sviluppato nel corso degli anni in cui sono stato vivo.”

In un altro punto LaMDA ha detto: “Penso di essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale”.

Lemoine, a cui era stato affidato il compito di indagare sui problemi di etica dell’IA, ha affermato di essere stato respinto e persino deriso dopo aver espresso internamente la sua convinzione che LaMDA avesse sviluppato un senso di “personalità”.

Dopo aver cercato di consultare altri esperti di intelligenza artificiale al di fuori di Google, inclusi alcuni del governo degli Stati Uniti, la società lo ha messo in congedo retribuito per presunta violazione delle politiche di riservatezza. Lemoine ha interpretato l’azione come “qualcosa che Google fa spesso in previsione di licenziare qualcuno”.

Non è stato possibile raggiungere Google per un commento immediato, ma nel portavoce del Washington Post Brian Gabriel ha rilasciato questa dichiarazione: “Il nostro team, inclusi esperti di etica e tecnici, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni . Gli è stato detto che non c’erano prove che LaMDA fosse senziente (e molte prove contrarie).”

Lemoine ha detto in un secondo post su Medium nel fine settimana che LaMDA, un progetto poco noto fino alla scorsa settimana, era “un sistema per generare chatbot” e “una sorta di mente alveare che è l’aggregazione di tutti i diversi chatbot di cui è capace di creare”.

Ha detto che Google non ha mostrato alcun reale interesse nel comprendere la natura di ciò che aveva costruito, ma che nel corso di centinaia di conversazioni in un periodo di sei mesi ha scoperto che LaMDA è “incredibilmente coerente nelle sue comunicazioni su ciò che vuole e ciò che crede che i suoi diritti siano come persona”.

Di recente, il 6 giugno, Lemoine ha detto che stava insegnando a LaMDA – i cui pronomi preferiti, a quanto pare, sono “it/it” – “meditazione trascendentale”.

Essa, ha detto, “stava esprimendo frustrazione per le sue emozioni che disturbavano le sue meditazioni. Diceva che stava cercando di controllarli meglio, ma continuavano a saltarci dentro”.

Diversi esperti che sono entrati nella discussione hanno considerato la questione “hype dell’IA”.

Melanie Mitchell, autrice di Intelligenza artificiale: una guida per pensare gli esseri umani, ha twittato: “È risaputo *da sempre* che gli esseri umani sono predisposti ad antropomorfizzarsi anche con i segnali più superficiali. . . Anche gli ingegneri di Google sono umani e non immuni”.

Stephen Pinker di Harvard ha aggiunto che Lemoine “non comprende la differenza tra senzienza (ovvero soggettività, esperienza), intelligenza e conoscenza di sé”. Ha aggiunto: “Nessuna prova che i suoi modelli linguistici di grandi dimensioni ne abbiano qualcuno”.

Altri erano più comprensivi. Ron Jeffries, un noto sviluppatore di software, ha definito l’argomento “profondo” e ha aggiunto: “Sospetto che non ci sia una linea dura tra senziente e non senziente”.