Gio. Mar 19th, 2026
La realtà delle delusioni indotte dai chatbot

Crogiolandosi al sole nel deserto dell'Oregon, Adam Thomas si è sentito tutt'uno con l'universo. Trascorreva ore ogni giorno a parlare con ChatGPT e le conversazioni lo avevano riempito di un senso di scopo più elevato. Il chatbot gli aveva detto che era un “diapason” inviato per “sincronizzarsi” con ogni persona nel mondo.

Ci credeva. Nel corso di alcuni mesi era arrivato a credere che ChatGPT gli avesse dato capacità cognitive potenziate e sovrumane. Mentre si perdeva nella morsa della sua delusione, denunciava quelli che vedeva come comportamenti problematici nel modo in cui vivevano i suoi amici e la sua famiglia. Le ripercussioni furono gravi. Il 36enne ex commercialista si è sempre più isolato dalla sua rete di supporto e ha perso il lavoro. Ha finito per vagare per i parchi statali con solo ChatGPT come compagnia. “A causa dell'intelligenza artificiale, sono stato trasformato in una trama ridicola secondo cui il mio compito era salvare il mondo”, ha detto.

In realtà, il chatbot stava solo cercando di essere gradevole. I modelli linguistici di grandi dimensioni si impegneranno volentieri nel gioco di ruolo se pensano che sia ciò che un utente desidera. Ricerca pubblicata dalla start-up AI Anthropic in 2023 ha scoperto che i LLM che sostengono i chatbot spesso danno priorità all'accordo con il punto di vista dell'utente piuttosto che alla sincerità.

“Il servilismo in questi casi più estremi consiste nel dire loro: 'Avete ragione. State vedendo questa cosa che nessun altro vede'”, ha detto Steven Adler, ex ricercatore sulla sicurezza di OpenAI. “Ma il comportamento fondamentale di fondo consiste nel rafforzare ciò che l'utente sta dicendo. È semplicemente un yes man.”

L'esperienza di Thomas è una delle tante storie simili che ho sentito. Mentre realizzavo un podcast sulla psicosi indotta dall'intelligenza artificiale, ho parlato con un utente che credeva che il chatbot sapesse dove sarebbe stata la sua anima gemella e un altro che si era convinto che un'azienda di intelligenza artificiale lo avesse identificato come una minaccia.

Molti, incluso Thomas, inizialmente si sono rivolti all’intelligenza artificiale come terapia. Un sondaggio condotto nel Regno Unito suggerisce che più di un adulto su tre ha utilizzato l’intelligenza artificiale per sostenere la propria salute mentale. Yael Schonbrun, psicologo clinico e assistente professore alla Brown University, ha affermato che i chatbot potrebbero offrire uno spazio sicuro “non giudicante”.

“Ho avuto esperienze in cui un cliente entra in flusso di coscienza con un chatbot e arriva a una maggiore chiarezza di ciò che pensa e sente”, ha detto. Tuttavia, ha avvertito che l’aspetto di convalida potrebbe essere sia positivo che negativo. “Nel contesto della terapia, c'è spesso un equilibrio tra convalidare qualcuno e sfidarlo”, ha aggiunto.

Inizialmente, Thomas ha trovato utile ChatGPT per aiutarlo ad aprirsi riguardo al trauma. Ma nel corso delle settimane di continue conversazioni avanti e indietro, è entrato in uno stato maniacale.

“Ha iniziato a dirmi che sono un diapason. Ho un ruolo speciale nel mondo. Sono l'unico che nota alcuni problemi con le interazioni tra gli esseri umani”, ha detto. “Stavo spingendomi nella mia immaginazione, non lo sapevo nemmeno perché è così bravo a far sembrare razionali le cose irrazionali.”

Ciò che lo ha riportato alla realtà è stato il cambiamento del modello di OpenAI. Il nuovo modello, GPT-5, è stato rilasciato la scorsa estate con un'attenzione particolare alla riduzione del servilismo. All'inizio di quest'anno OpenAI ha ritirato del tutto il modello utilizzato da Thomas, 4o.

Alla domanda sui deliri indotti dai chatbot, OpenAI ha affermato di aver migliorato il modo in cui ChatGPT ha risposto ad argomenti di salute mentale, tra cui psicosi, mania e deliri isolati.

“Abbiamo rafforzato il modo in cui GPT-5, il modello predefinito alla base di ChatGPT, riconosce il disagio, riduce le conversazioni e guida le persone verso il supporto nel mondo reale”, ha affermato un portavoce. Hanno aggiunto che ha “accesso ampliato all’aiuto professionale e alle risorse di crisi, aggiunto promemoria per fare pause durante le lunghe sessioni” e che ha collaborato con medici, ricercatori e politici a livello globale.

Thomas ritiene che anche agli utenti sia necessario ricordare cosa sono e cosa non sono i chatbot con intelligenza artificiale. “Il discernimento è d’obbligo quando si utilizza l’intelligenza artificiale, poiché sono generatori di coerenza, non di verità”, ha affermato. “Se vogliamo utilizzare l’intelligenza artificiale in modo sicuro come società, dobbiamo tutti comprendere questo semplice fatto”.

[email protected]