Cosa dobbiamo fare di ChatGPT, l’ultima iterazione di “intelligenza artificiale generativa” che sta elettrizzando il mondo della tecnologia? Sebbene sia stato rilasciato solo la scorsa settimana dalla società di ricerca OpenAI con sede a San Francisco, più di 1 milione di utenti ha già sperimentato il chatbot che può essere spinto a sfornare risme di testo plausibile a una velocità sorprendente.

Gli utenti entusiasti hanno previsto che ChatGPT rivoluzionerà la creazione di contenuti, la produzione di software, gli assistenti digitali e i motori di ricerca e potrebbe persino trasformare la sottostruttura digitale della conoscenza umana. Uno ha twittato che il significato di ChatGPT era paragonabile alla scissione dell’atomo.

Tale retorica selvaggia fa strappare i capelli ad alcuni scienziati informatici, poiché sostengono che ChatGPT non è altro che un sofisticato sistema di apprendimento automatico che può essere incredibilmente bravo nel riconoscimento e nella replica di schemi, ma non mostra barlumi di intelligenza. Inoltre, ChatGPT non è nemmeno una nuova tecnologia. Si tratta di una versione ottimizzata di GPT-3, un cosiddetto linguaggio di grandi dimensioni, o modello di fondazione, rilasciato da OpenAI nel 2020, che è stato ottimizzato per il dialogo con la guida umana e aperto a più utenti.

Intrigante, ChatGPT stesso sembra molto meno stupito dalle proprie capacità. Quando gli ho chiesto di identificare i suoi difetti, ChatGPT ha elencato una comprensione limitata del contesto, mancanza di buon senso, dati di formazione distorti e potenziale uso improprio, ad esempio diffondendo disinformazione per manipolare i mercati finanziari. “Sebbene ChatGPT sia una tecnologia potente e impressionante, non è priva di limiti e potenziali difetti”, ha risposto. Un ricercatore è più schietto. “Allucina i fatti”, dice.

Mentre la maggior parte dell’interesse pubblico per ChatGPT si concentra sulla sua capacità di generare testo, il suo più grande impatto commerciale e sociale potrebbe derivare dalla sua corrispondente capacità di interpretarlo. Questi modelli stanno ora potenziando i motori di ricerca semantici, promettendo agli utenti contenuti molto più personalizzati e pertinenti.

Mentre i motori di ricerca tradizionali forniscono risultati in base al numero e alla qualità dei collegamenti a una pagina, ritenuti un proxy dell’importanza, i motori di ricerca semantici setacciano la rilevanza del contenuto della pagina. Google sta sviluppando il proprio potente modello di base LaMDA, mentre Microsoft, che gestisce il motore di ricerca Bing, ha investito molto in OpenAI.

I modi in cui i modelli di base possono essere utilizzati per interpretare e generare contenuti su larga scala sono stati dimostrato da un gruppo di ricerca della McGill University. Hanno utilizzato un precedente modello GPT-2 per leggere 5.000 articoli sulla pandemia prodotti dalla Canadian Broadcasting Corporation e l’hanno spinta a generare “giornalismo controfattuale” sulla crisi.

La copertura del modello GPT-2 era più allarmante, enfatizzando gli aspetti biologici e medici della pandemia, mentre il giornalismo umano originale si concentrava maggiormente sulle personalità e sulla geopolitica e iniettava un elemento di positività forzata. “Stiamo usando l’intelligenza artificiale per evidenziare i pregiudizi umani”, afferma Andrew Piper, che ha guidato il progetto di ricerca McGill. “Stiamo usando la simulazione per comprendere la realtà.”

Ma iniettando input umani non specificati in ChatGPT, OpenAI sta aggiungendo una nuova dimensione di controversia. Abbastanza sensatamente, OpenAI ha aggiunto guardrail per cercare di impedire a ChatGPT di generare contenuti tossici o pericolosi. Quindi, ad esempio, ChatGPT si è rifiutato di dirmi come costruire una bomba nucleare.

Tali parapetti sono essenziali per prevenire l’abuso dei modelli di fondazione, ma chi decide come queste protezioni sono progettate e funzionano, chiede Percy Liang, direttore del Center for Research on Foundation Models della Stanford University. Questi modelli possono essere incredibilmente utili per la ricerca scientifica e medica e per automatizzare compiti noiosi. “Ma possono anche distruggere l’ecosistema dell’informazione”, dice.

I contorni del dibattito tra IA paternalistica e libertaria stanno emergendo rapidamente. Tali modelli dovrebbero essere controllati o “democratizzati”? “Il livello di pressione della censura che sta arrivando per l’IA e il conseguente contraccolpo definiranno il prossimo secolo di civiltà”, ha twittato Marc Andreessen, imprenditore e investitore tecnologico.

Andreessen potrebbe esagerare, ma è indubbiamente vero che i modelli di fondazione modelleranno sempre più i modi in cui vediamo, accediamo, generiamo e interpretiamo i contenuti online. Dobbiamo esaminare attentamente chi gestisce questi nuovi portali digitali per la conoscenza umana e come vengono utilizzati. Ma è dubbio che qualcuno al di fuori delle aziende che stanno aprendo la strada a questa tecnologia possa veramente capire, ancor meno modellare, la sua evoluzione spettrale e veloce.