Il mio francese ha raggiunto un livello infelice: non abbastanza buono per poter guardare la televisione francese senza sottotitoli, abbastanza buono per essere infastidito da cattive traduzioni. Questi errori mi restano in mente molto tempo dopo aver finito di guardare. Alcune delle scelte fatte nei sottotitoli di Amazon sono eccellenti Barone Neroad esempio, sono il lavoro di un computer molto antico o di un essere umano molto pigro.
Poi ci sono le scelte di traduzione che mi lasciano perplesso, non perché siano cattive ma perché sono difficili. La commedia brillante Chiama il mio agente!, ad esempio, presenta un momento in cui Sofia, la receptionist dell'agenzia, chiede a uno degli agenti se dovrebbero usare i pronomi “tu” più informali: uno scambio per il quale non esiste una traduzione letterale. Il traduttore ha optato per “diventiamo amici?” una linea vaga e goffa. Ma non sono sicuro di cosa avrebbero potuto fare meglio, se non altro. Di fronte ad una frase che non ha un analogo inglese, non ci sono buone risposte.
Alla fine, con la traduzione a volte bisogna fare una scelta imperfetta perché non esistono due lingue esattamente uguali. Questo vale anche per i confronti più ravvicinati: basti pensare a come le parole “abbastanza carino” abbiano significati molto diversi se chi parla è britannico o americano, o quali parolacce sono appropriate in una conversazione sul posto di lavoro a Sydney piuttosto che a New York.
La questione di cosa fare quando si hanno solo scelte imperfette è un utile esempio di come dovremmo pensare all’intelligenza artificiale e all’etica. Non sappiamo ancora quanto sarà intelligente l’intelligenza artificiale o quanto potranno diventare efficaci i modelli linguistici di grandi dimensioni nel sostituire il lavoro umano nella maggior parte dei campi. Ma traducendo possiamo dire che l’intelligenza artificiale fornisce già un lavoro coerente e affidabile. Siamo già arrivati al punto in cui potremmo, se lo volessimo, fare a meno di molti traduttori umani.
Tuttavia, come dimostrano le distinzioni grandi e piccole, non dovremmo volerlo, proprio perché la traduzione sarà sempre un compito imperfetto che implica difficili giudizi. Il problema non è che le macchine non possano esprimere giudizi: è che inevitabilmente questi giudizi avranno conseguenze e qualcuno deve essere in grado di difendere tali conseguenze. Una macchina può farsi carico di un gran numero di cose, ma l’unica cosa che non potrà mai farsi carico è la responsabilità.
Rovinare il mio godimento di un dramma politico francese altrimenti impeccabile è una cosa, ma che dire della traduzione di una transazione importante? Le persone meritano una ragionevole aspettativa che qualcuno si assuma la responsabilità delle decisioni consequenziali.
Solo perché un computer può farlo non è il motivo per cui un'organizzazione, sia essa un'azienda o uno stato, alza le spalle e dice di aver affidato una decisione difficile a una macchina. Il lavoro difficile, forse: ma le decisioni ultime su quali parole usare, quale decisione prendere, se quelle decisioni siano grandi o piccole – queste dovrebbero sempre essere prese da un essere umano. È corrosivo per la responsabilità e per il controllo delle persone sulla propria vita se non hanno nessuno con cui lamentarsi o a cui chiedere riparazione.
Vediamo un esempio più viscerale di questo fenomeno su X proprio adesso, dove il chatbot AI del sito web, Grok, ha accettato le richieste degli utenti di produrre immagini di persone reali, compresi bambini, spogliati dei loro vestiti. Ma non è “Grok” a degradare gli esseri umani in questo modo. Sono le singole persone che scelgono di effettuare la richiesta e una singola piattaforma che sceglie di ospitare il chatbot e le immagini. Queste sono decisioni prese dai singoli individui e dovrebbero essere considerate come tali.
Possiamo ragionevolmente aspettarci che X impedisca a Grok di farlo e possiamo aspettarci che lo Stato intervenga, come sta facendo il governo britannico, se non lo fa. Non dovremmo aspettarci che ChatGPT o qualsiasi altro software di traduzione impedisca a un traduttore di utilizzarlo: la responsabilità di una cattiva traduzione spetta comunque alla persona che approva il lavoro finito.
Questo è vero sia che le decisioni siano piccole – come esprimere sentimenti che esistono in una lingua in un’altra che non ha una traduzione esatta – o enormi e illegali, come produrre immagini sessualizzate di un’altra persona senza il suo consenso. Le macchine non possono rivendicare un’agenzia morale. Anche se il ruolo di un essere umano è semplicemente quello di intervenire alla fine, mettere a posto le parti più difficili o giudicare problemi propriamente intricati, deve accettare la responsabilità del risultato. Invece di lasciarci ingannare da una risposta incerta e indirizzarci verso una macchina, dovremmo tutti avere la rassicurazione di sapere che alla fine possiamo chiedere un risarcimento o provare gratitudine per il lavoro di una persona reale.
