Questa settimana ho commissionato un haiku sul Grande Incendio di Londra del 1666 a un giovane poeta promettente, il chatbot di intelligenza artificiale ChatGPT. Pochi secondi dopo, ha prodotto questo: “Le ceneri cadono come neve/Il grande incendio divampa nella città di Londra/La distruzione regna sovrana”.

Beh, non male. C’è una similitudine stagionale nella prima riga. Mi convince meno il secondo, che si legge sospettosamente come l’incarico stesso. Il terzo ne contiene troppi sillabe ma anche un doppio gioco di parole su “reigns”, evocando sia la monarchia inglese che la pioggia di ceneri. Era intenzionale?

Ha battuto il sonetto che ho chiesto a ChatGPT di scrivere sullo stesso argomento, che aveva un metro losco e rime stolide (“Alla fine, il fuoco è stato finalmente spento / Lasciando un’eredità di coraggio e forza”). Considera anche il suo ritornello di musica country sulla vigilia di Capodanno: “Alzerò un bicchiere al vecchio / E farò un brindisi al nuovo / Accendi i fuochi d’artificio e gli applausi / È ora di ricominciare”.

È difficile sapere da dove provenga tutta la creatività surrogata. Come ha risposto ChatGPT quando l’ho chiesto, “I modelli di linguaggi di grandi dimensioni come me sono addestrati su enormi quantità di dati di testo, che possono variare da centinaia di gigabyte a diversi terabyte”. Ma c’è molto di più là fuori: quando ho digitato vari comandi in una casella di testo, ne ha soddisfatti la maggior parte rapidamente.

Molti altri hanno giocato con ChatGPT da quando è stato lanciato la scorsa settimana da OpenAI, una società in California. L’oracolo dell’apprendimento automatico ha scricchiolato sotto la tensione delle richieste di oltre 1 milione di utenti, dalla produzione di brevi saggi alle risposte alle domande. Scriveva lettere, dispensava consigli medici di base e riassumeva la storia.

ChatGPT è stranamente impressionante, così come Dall-E, il generatore AI di immagini digitali da messaggi di testo svelato per la prima volta da OpenAI lo scorso anno. Una volta provati entrambi, è impossibile evitare la sensazione che gli agenti del linguaggio naturale sconvolgeranno molti campi, dalla musica e dai videogiochi alla legge, alla medicina e al giornalismo. I chatbot stanno arrivando rapidamente per noi professionisti.

Ma ChatGPT è anche come alcune persone che conosco: può trasformare informazioni approssimative in risposte fluenti e convincenti. Suona bene anche quando inventa cose sulla base di qualcosa che ha letto da qualche parte, che è stato esso stesso rigurgitato da altre fonti. La sua voce morbida e articolata è solitamente persuasiva, ma non ci si può fidare completamente.

Prendi il saggio di cinque paragrafi che ha prodotto quando gli ho chiesto di descrivere il modo in cui Amleto tratta Ofelia nell’opera di Shakespeare. Questo aveva un giusto riassunto (“Durante tutta la commedia, Amleto è combattuto tra il suo dovere di vendicare l’omicidio di suo padre e il suo amore per Ofelia”) ma affermava che “le azioni di Amleto sono motivate dal desiderio di proteggere coloro che ama”. Davvero?

Poi c’è stata la lettera legale che ha redatto su mio comando all’altro conducente in un incidente d’auto immaginario. “Secondo il rapporto della polizia, stavi accelerando e non ti sei fermato a un semaforo rosso, causandoti una collisione con la mia macchina. . . Chiedo quindi che tu fornisca un pieno ed equo risarcimento per i danni che ho subito “, ha scritto. Lucido, ma immaginario.

Il pericolo è che ChatGPT e altri agenti di intelligenza artificiale creino una versione tecnologica della legge di Gresham sull’adulterazione del XVI secolo conio, che “la moneta cattiva scaccia quella buona”. Se un mash-up linguistico inaffidabile è liberamente accessibile, mentre la ricerca originale è costosa e laboriosa, la prima prospererà.

Ecco perché Stack Overflow, un forum di consulenza per programmatori e programmatori, questa settimana ha imposto un divieto temporaneo ai suoi utenti di condividere risposte da ChatGPT. “Il problema principale è che mentre le risposte quali [it] produce hanno un alto tasso di errori, in genere sembrano buoni “, hanno scritto i suoi moderatori.

I lavori creativi di ChatGPT sono meno vulnerabili all’essere esposti come fantasiosi. Anche quando sono mediocri, i suoi sonetti e le immagini di Dall-E non sono definitivamente sbagliati. Ma Sam Altman, amministratore delegato di OpenAI, pensa che il suo agente si evolverà in un utile strumento di ricerca. “Possiamo immaginare un ‘impiegato AI’ che accetta richieste in linguaggio naturale come fa un essere umano”, ha ha scritto.

Lo immagino: sembra quasi già uno. Saggi approfonditi su Amleto si rivelano una forzatura, ma potrebbero elencare con precisione le scene in cui compaiono entrambi Amleto e Ofelia. Ha anche fornito un breve riassunto dei migliori piloti di Formula 1 in passato. Questo tipo di ricerca di base fa risparmiare tempo agli umani.

Ma deve essere schierato con attenzione, e questo è il problema. ChatGPT è come una versione urbana e troppo sicura di Wikipedia o della ricerca di Google: utile come punto di partenza ma non per risposte complete. Corrisponde troppo da vicino al riassunto del giornalista Nicholas Tomalin delle qualità essenziali per il suo lavoro: “Astuzia da topo, modi plausibili e un po’ di abilità letteraria”.

Non ha senso cercare di fermare ChatGPT, perché ora è stato rilasciato e probabilmente migliorerà. Col tempo, scopriremo usi per gli agenti di intelligenza artificiale del linguaggio naturale che non immaginiamo ancora. Nel frattempo, spero che la distruzione non regni sovrana.

[email protected]