Dom. Lug 13th, 2025
Harry Frankfurt

Rimani informato con aggiornamenti gratuiti

Le bugie non sono il più grande nemico della verità, secondo il filosofo Harry Frankfurt. Le cazzate sono peggio.

Come ha spiegato in il suo saggio classico Sulle cazzate (1986), un bugiardo e un cassiere di verità stanno giocando lo stesso gioco, proprio sui lati opposti. Ognuno risponde ai fatti in quanto li comprendono e accetta o rifiuta l'autorità della verità. Ma una cazzatura ignora del tutto queste richieste. “Non rifiuta l'autorità della verità, come fa il bugiardo, e si oppone ad essa. Non presta alcuna attenzione ad essa. In virtù di ciò, le cazzate sono un nemico più grande della verità di quanto non siano le bugie.” Tale persona vuole convincere gli altri, indipendentemente dai fatti.

Purtroppo, Francoforte morì nel 2023, solo pochi mesi dopo il rilascio di Chatgpt. Ma leggere il suo saggio nell'era dell'intelligenza artificiale generativa provoca una familiarità nausea. Per diversi aspetti, il saggio di Francoforte descrive ordinatamente l'output di modelli di linguaggio di grandi dimensioni abilitati agli AI. Non si preoccupano della verità perché non ne hanno concepimento. Operano mediante correlazione statistica non osservazione empirica.

“La loro più grande forza, ma anche il loro più grande pericolo, è la loro capacità di sembrare autorevole su quasi ogni argomento indipendentemente dall'accuratezza fattuale. In altre parole, la loro superpotenza è la loro capacità sovrumana di cazzate”. Carl Bergstrom e Jevin West hanno scritto. I due professori dell'Università di Washington organizzano un corso online – Oracoli moderni o macchine per cazzate? – Scrutando questi modelli. Altri hanno ribattezzato la produzione delle macchine come bottshit.

Una delle caratteristiche più note e inquietanti, ma a volte interessanti, di LLMS è la loro “allucinazione” di fatti-o semplicemente inventare cose. Alcuni ricercatori sostengono che questa è una caratteristica intrinseca dei modelli probabilistici, non un bug che può essere risolto. Ma le aziende di intelligenza artificiale stanno cercando di risolvere questo problema migliorando la qualità dei dati, perfezionando i loro modelli e costruendo nei sistemi di verifica e controllo dei fatti.

Sembrerebbero un po 'di modo per andare, però, considerando Un avvocato per antropico ha detto a un tribunale californiano questo mese Che il loro studio legale si fosse sottoposto involontariamente a una citazione errata allucinata dal Claude della compagnia AI. Come gli utenti di Google Chatbot flag: “Gemini può commettere errori, incluso le persone, quindi ricontrollarlo”. Ciò non ha impedito a Google da questa settimana di lanciare una “modalità AI” a tutti i suoi servizi principali negli Stati Uniti.

I modi in cui queste aziende stanno cercando di migliorare i loro modelli, incluso l'apprendimento del rinforzo dal feedback umano, rischiano di introdurre distorsioni, distorsioni e giudizi di valore non dichiarato. Come ha dimostrato l'FT, i chatbot AI di OpenAI, Antropic, Google, Meta, Xai e DeepSeek descrivono le qualità dei dirigenti delle proprie aziende e quelle dei rivali in modo molto diverso. Grok di Elon Musk ha anche promosso meme sul “genocidio bianco” in Sudafrica in risposta a istruzioni totalmente non correlate. Xai ha detto di aver risolto il problema tecnico, che ha incolpato una “modifica non autorizzata”.

Tali modelli creano una nuova categoria ancora peggiore di potenziali danni – o “discorso negligente”, secondo Sandra Wachter, Brent Mittelstadt e Chris Russell, In un documento dell'Oxford Internet Institute. A loro avviso, il discorso senza negligenza può causare danni immateriali, a lungo termine e cumulativi. È come “cazzate invisibili” che rende la società più stupida, mi dice Wachter.

Almeno con un politico o un venditore possiamo normalmente comprendere la loro motivazione. Ma i chatbot non hanno intenzionalità e sono ottimizzati per la plausibilità e il coinvolgimento, non per la veridicità. Inventeranno fatti senza scopi. Possono inquinare la base di conoscenza dell'umanità in modi insondabili.

La domanda intrigante è se i modelli di intelligenza artificiale potrebbero essere progettati per una maggiore veridicità. Ci sarà una domanda di mercato per loro? O gli sviluppatori di modelli dovrebbero essere costretti a rispettare gli standard di verità più elevati, ad esempio come inserzionisti, avvocati e medici? Wachter suggerisce che lo sviluppo di modelli più veritieri richiederebbe tempo, denaro e risorse che le iterazioni attuali sono progettate per risparmiare. “È come volere che un'auto fosse un aereo. Puoi spingere un'auto da una scogliera ma non sfiderà la gravità”, dice.

Detto questo, i modelli AI generativi possono essere ancora utili e preziosi. Molte carriere redditizie – e politiche – e politiche – sono state costruite su cazzate. Utilizzato in modo appropriato, l'intelligenza artificiale generativa può essere distribuita per una miriade di casi d'uso aziendale. Ma è delirante e pericoloso, confondere questi modelli con le macchine per la verità.

[email protected]