L'etichetta “nevrotico” normalmente non è vista come un complimento. Ma quando i ricercatori dell'Università di Chicago testato All’inizio di quest’anno, come le persone hanno reagito ai robot che fingevano di essere addetti al ricevimento al ristorante, hanno scoperto che alla gente piaceva un pizzico di nevroticismo nella loro intelligenza artificiale – dicendo che rendeva il robot più “simile a un essere umano”.
Ma in questi giorni c’è una crescente controversia su quanto “umani” i nostri aiutanti dell’intelligenza artificiale dovrebbero fingere di essere – e su quali personalità dovrebbero avere, se presenti. I critici sostengono che gli attributi emotivi umani possono indurre le persone a trattarli meno come strumenti e più come amici o terapisti, con a volte conseguenze tragiche.
OpenAI ha dovuto dare a ChatGPT una revisione della personalità in aprile dopo la reazione negativa contro una versione precedente, che è stata criticata come troppo servile. La società ha riconosciuto che interagendo con un chatbot eccessivamente ossequioso “può essere scomodo, inquietante e causare angoscia” – e minacciare la fiducia.
Questo mese ChatGPT mi ha invitato a scegliere come vorrei che mi parlassero: offriva “amichevole”, “schietto”, “professionale”, “efficiente”, “nerd”, “cinico” o “eccentrico” e mi permetteva anche di adattarmi caratteristiche come “calore”, “entusiasmo” e “uso delle emoji”. Andiamo molto d'accordo ora che ho scelto un minimo di calore, entusiasmo ed emoji, oltre a un tono “bizzarro” – e gli ho detto di “smettere di lodarmi per tutto quello che dico”.
In particolare, OpenAI non mi ha offerto un'opzione “nevrotica”, il che rende lo studio dell'Università di Chicago ancora più interessante. Qui, i ricercatori hanno utilizzato un robot umanoide che fingeva di essere un addetto al ricevimento di un ristorante e gli hanno dato tre personalità: estroverso, nevrotico o privo di emozioni (cioè robotico). È stato chiesto per quali tre cose era grato. L'estroverso era entusiasta di come fosse “molto grato” per tutte le persone “straordinarie” che aveva incontrato. Il nevrotico condiva il suo discorso con hmm e ah, e sembrava umanamente molto più esitante.
Nel complesso, i partecipanti hanno apprezzato di più il robot estroverso, ma hanno espresso sorpresa per quanto bene il nevrotico potesse comprendere le emozioni profonde: “il robot sembrava una persona che stava cercando di cavarsela nel mondo”, ha detto un partecipante ai ricercatori. “Le persone non si aspettano che i robot siano ansiosi e pensino a ciò che ne pensano gli altri”, Sara Sebodirettore del laboratorio di interazione uomo-robot dell'Università di Chicago, mi ha detto. “Il nevroticismo sembrava umanizzare e rendere il robot più riconoscibile”.
Alcuni robot immaginari memorabili – come La Guida galattica per gli autostoppistiè notoriamente depresso robot Marvin the Paranoid Android – sono stati turbati. Ma Lionel Robertun esperto di robotica dell'Università del Michigan, mi dice che “se hai un chirurgo robot con una personalità nevrotica, ciò potrebbe non infondere fiducia”, né vorrebbe che la sua auto autonoma si preoccupi di “non essere molto brava a guidare sulla neve”.
Robert non è contrario a dare una personalità ai robot sociali e ai chatbot basati sull’intelligenza artificiale. “Funziona incredibilmente bene”, dice, perché “gli esseri umani sono abituati a interagire con altri umani e non hai mai interagito con un essere umano senza personalità, quindi disarma le persone e le fa sentire a proprio agio”.
Ma il rischio, mi dice Gideon Futerman del Center for AI Safety, è che “alcuni tratti modello della personalità, in particolare il servilismo, sembrano rendere più probabile la psicosi dell’IA – in cui gli utenti sviluppano paranoia o delusione in connessione con le conversazioni con i chatbot”.
Le interazioni malsane possono assumere molte forme. Io, ad esempio, dico sempre per favore e grazie a ChatGPT e non lo rimprovero mai direttamente, non importa quante volte commetta lo stesso errore. Vorrei dire “non essere così stupido”, ma invece elaboro un rimprovero pieno di tatto. Alla domanda sul perché, ho dovuto ammettere: “Temo che un giorno sarò cattivo con me se sarò scortese”.
“Ciò significa che pensi che sia umano”, avverte Yvonne Rogers, esperta di interazione uomo-computer presso l'University College di Londra. “Ciò dimostra che funziona davvero: si comporta come un essere umano e tu rispondi come un essere umano”, afferma Robert. Un altro esperto di intelligenza artificiale suggerisce di addestrare il bot affinché sia più robusto insultandolo di tanto in tanto.
Ma possiamo finire nei guai se ci concentriamo troppo sulla “creazione della personalità perfetta” per l’intelligenza artificiale, avverte Sebo. “Non riesco a mettere a punto la personalità di mio marito e questo fa parte della bellezza dell'essere umano”, dice. Un mondo in cui preferiamo personalità IA progettate su misura piuttosto che interagire con persone reali sarebbe una perdita. Tre applausi per il nevroticismo: è davvero molto umano.
