Dom. Gen 25th, 2026
Ripensando a un anno di errori dell’intelligenza artificiale

Le persone giustamente passano molto tempo a preoccuparsi se l’intelligenza artificiale sarà mai abbastanza intelligente da distruggerci. Ma cosa succede se è già iniziato?

Questo pensiero mi è venuto in mente mentre esaminavo un elenco che tenevo di notevoli errori di intelligenza artificiale nel 2025 o, per essere più precisi, di errori umani ridotti in basso utilizzando quella che ci viene detto essere l'intelligenza artificiale relativamente elementare di oggi.

La tecnologia potrebbe essere benigna. Ma l’elenco ci ricorda ancora che le nostre qualità umane di pigrizia, avidità e ambizione ci rendono facile preda di questo.

Ciò è evidente nel mio settore, dove l’anno è iniziato con alcuni utenti dell’app della BBC che hanno ricevuto la notizia sorprendente che il grande tennista spagnolo, Rafael Nadal, era a) diventato brasiliano eb) aveva rivelato di essere gay.

Come riportato dalla BBC, il riassunto della notizia contenente queste false informazioni era stato generato da una funzionalità di intelligenza artificiale che Apple aveva implementato per le persone con i suoi ultimi iPhone. Il colosso della tecnologia ha successivamente sospeso la funzione, che aveva emesso anche altri falsi allarmi.

Che tipo di pressioni competitive potrebbero aver portato al suo lancio in primo luogo? Questa è una domanda che mi sono posto qualche mese dopo, quando il quotidiano Chicago Sun-Times ha affermato di aver avuto un “momento di apprendimento” dopo aver presentato ai suoi lettori una lista di letture estive che includeva consigli per libri che, per così dire, non esistevano.

L'elenco proveniva da un libero professionista che lavorava con uno dei “partner di contenuti” del giornale e aveva utilizzato l'intelligenza artificiale.

Solo mesi dopo, in Pakistan, sono emerse altre scuse dal quotidiano Dawn per una storia sulle vendite di automobili che si è conclusa con una mortificante intelligenza artificiale che si è offerta di rendere l’articolo “ancora più scattante” con “statistiche incisive di una riga” per “il massimo impatto sui lettori”.

È facile commettere errori nel giornalismo. Li ho fatti troppo spesso anch'io. Ma è preoccupante immaginare un settore afflitto da problemi finanziari che sia sempre più attratto da strumenti di intelligenza artificiale che consentono di risparmiare sui costi e che commettono ancora più errori.

Il lato positivo è che i pasticci dei giornali raramente ti portano in ospedale. Lo stesso non si può dire per le informazioni dell’intelligenza artificiale utilizzate da un uomo per ridurre l’assunzione di sale. Alla fine è stato ricoverato in ospedale con una condizione nota come bromismo, spingendo i ricercatori ad avvertire in agosto che l’uso dell’intelligenza artificiale per consulenza medica può portare a “effetti avversi prevenibili per la salute”.

Il mondo della medicina e quello dei media non sono soli.

La legge ha subito una moltitudine di fischi sull’IA.

In Australia, un avvocato senior si è scusato con un giudice che presiedeva un caso di omicidio che era stato ritardato da presentazioni assistite dall’intelligenza artificiale che includevano citazioni fittizie e casi inesistenti. “A rischio di eufemismo”, ha detto il giudice, “il modo in cui si sono svolti questi eventi è insoddisfacente”.

Puoi leggere tu stesso la questione su un database che tiene traccia delle decisioni legali che coinvolgono le allucinazioni dell'IA. Ha trovato quasi 700 esempi dall'aprile 2023, cinque mesi dopo il lancio pubblico di ChatGPT.

Ce ne sono meno negli altri servizi professionali?

Sospetto che ci sia stato un forte respiro tra i consulenti quando hanno letto la notizia di ottobre secondo cui Deloitte avrebbe parzialmente rimborsato il suo pagamento per un rapporto di 290.000 dollari pieno di errori che aveva fatto per il governo australiano e che era stato in parte prodotto da AI.

Le società di consulenza, come tante altre aziende, stanno investendo milioni nell’intelligenza artificiale per mantenere e aumentare il proprio vantaggio competitivo.

Non esiste una scusa del genere per il campo in cui quest’anno hanno continuato a verificarsi alcuni dei più importanti incidenti legati all’intelligenza artificiale: la politica.

Non mi riferisco qui alla capacità dell’intelligenza artificiale di diffondere disinformazione di massa e altre minacce alla democrazia. È il modo più banale ma preoccupante in cui i politici di tutto il mondo hanno adottato questa fastidiosa tecnologia.

“Non abbiamo votato per ChatGPT”, è diventato un ritornello familiare da quando il primo ministro svedese, Ulf Kristersson, ha detto a un giornalista di aver consultato gli strumenti di intelligenza artificiale per una seconda opinione su alcune cose. Altri hanno utilizzato l’intelligenza artificiale in quelle che si sono rivelate presentazioni imprecise alle udienze legislative.

Ma la mossa più difficile da comprendere è avvenuta a settembre in Albania, dove il primo ministro Edi Rama ha introdotto un “ministro” governativo generato dall’intelligenza artificiale di nome Diella come membro del suo gabinetto.

Potrebbe essere una mossa simbolica, dal momento che la costituzione del paese richiede che i ministri siano cittadini di almeno 18 anni. Ma è scoraggiante. È già abbastanza difficile sapere dove ti trovi con un essere umano, nonostante tutti i nostri difetti e difetti. Con l’intelligenza artificiale, come stiamo rapidamente imparando, è praticamente impossibile.