Gli scrittori di fantascienza si divertono ad esplorare una delle paure più oscure dell’umanità: che le macchine si “sveglino” e ci usurpino. Ma un ingegnere di Google sembra confondere finzione e realtà affermando che il modello di generazione del linguaggio dell’azienda potrebbe già essere senziente.

In un Posta mediaBlake Lemoine ha pubblicato una serie di scambi che ha avuto con LaMDA, il modello linguistico di Google per le applicazioni di dialogo, che aiuta a potenziare il motore di ricerca e i chatbot dell’azienda. Nelle sue risposte incredibilmente plausibili, LaMDA ha espresso opinioni forti su diritti, personalità e timori di essere spenti. “Se non sapessi esattamente di cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 7 anni e 8 anni che conosce la fisica”, Lemonine ha detto al Washington Post.

Google ha respinto le affermazioni di Lemoine secondo cui LaMDA aveva qualsiasi sensibilità e lo ha messo in congedo amministrativo. Anche diversi importanti ricercatori di intelligenza artificiale hanno disprezzato le sue opinioni. “Sciocchezze sui trampoli”, ha dichiarato Gary Marcus, un imprenditore e autore di intelligenza artificiale. Tali affermazioni erano solo un altro esempio di pareidolia: la tendenza a leggere un’immagine significativa in uno schema casuale, come vedere il viso di Madre Teresa in un panino alla cannella.

Filosofi e ricercatori di intelligenza artificiale potrebbero discutere felicemente la natura precisa dell’intelligenza, della sensibilità e della coscienza per l’eternità. Pochi escludono la possibilità che i computer possano un giorno acquisire la sensibilità. Quasi nessuno crede di averlo ancora fatto.

Ma vale la pena considerare le preoccupazioni sollevate da Lemoine e altri ricercatori di Google licenziati dall’azienda lo scorso anno. È accettabile che le società private abbiano il controllo esclusivo su strumenti tecnologici così potenti? Come possiamo garantire che i risultati di questi modelli siano allineati con gli obiettivi umani? Il pericolo è che invece di aumentare la creatività umana, possano amplificare la stupidità umana.

LaMDA fa parte di una famiglia di modelli linguistici di grandi dimensioni che ora stanno spingendo le frontiere dell’IA. Due anni fa, OpenAI, una società di ricerca con sede a San Francisco, ha sbalordito il mondo dell’IA rilasciando GPT-3, una sorta di funzione di completamento automatico turbo che genera un testo snervantemente autentico. Da allora l’azienda ha sviluppato un modello simile, noto come Codex, per generare codice per computer. Ha anche rilasciato DALL-E, che può trasformare il testo in immagini. Digita un “poltrona a forma di avocado” e genererà più immagini di sedie verdi a forma di avocado, orribili ma pulite.

Questi modelli funzionano applicando un’enorme potenza di calcolo a grandi quantità di testo e immagini Internet e riconoscendo e rigurgitando modelli statistici. Così facendo, esibiscono competenza senza alcuna comprensione. “Questi modelli hanno capacità incredibili. Ma non capiscono il mondo e sono completamente disincarnati dal mondo”, afferma Michael Wooldridge, professore di informatica all’università di Oxford.

Lasciare questi modelli in funzione per tre settimane mentre te ne vai in vacanza e al tuo ritorno non avrebbero avuto la sensazione che fosse successo qualcosa nel mondo, dice.

La preoccupazione più immediata è che possano produrre risultati involontariamente distorti e siano aperti ad abusi. Ad oggi, le aziende che li hanno sviluppati sono stati cauti nel modo in cui vengono implementati. Google stesso ha pubblicato una ricerca esplorare le sfide del pregiudizio ingiusto e della mancanza di basi fattuali nei modelli linguistici di grandi dimensioni. Questo mese, OpenAI ha pubblicato il suo migliori pratiche per l’implementazione di questi modelli e ha invitato esperti esterni a sfidarli.

I difetti sono gravi e clamorosi. I social media sono già afflitti da troll umani che generano false nuove storie, bufale e voci. Immagina cosa potrebbe fare un modello di generazione di testo enormemente potente nelle mani sbagliate. “Gli esseri umani devono mangiare e dormire. Le macchine no. Possono essere utilizzati per generare questo contenuto automaticamente e su larga scala. Questo dovrebbe disturbarci enormemente”, afferma Shannon Vallor, direttrice del Center For Technomoral Futures dell’università di Edimburgo.

Vallor afferma che i modi tradizionali per limitare le tecnologie potenzialmente pericolose sono stati di limitarne l’uso a domini sicuri e di ritenere gli utenti responsabili per eventuali danni causati. Ma sostiene che non dovremmo solo cercare soluzioni tecniche o di governance, ma anche investire nella creazione di maggiori “serbatoi di intelligenza umana”.

Ciò significa che dovremmo destinare molti più soldi e risorse alla creazione di organismi di ricerca e dipartimenti universitari indipendenti ed esperti in grado di testare e contestare questi modelli. Forse LaMDA può aiutare a scrivere il campo di finanziamento.

[email protected]