Mar. Lug 16th, 2024
L’intelligenza artificiale sta arrivando per la nostra rabbia

Rimani informato con aggiornamenti gratuiti

Howard Beale, il profetico antieroe furioso dal film del 1976 Rete, era certamente molto arrabbiato. Sempre più spesso, secondo successive indagini Gallup dello stato emotivo del mondo, lo siamo tutti.

Ma forse non ancora per molto, se l’intelligenza artificiale avrà voce in capitolo. L’intelligenza artificiale stava già arrivando per il nostro lavoro; ora sta arrivando per la nostra furia. La domanda è se qualcosa ha il diritto di sopportare quella furia senza permesso e se qualcuno è pronto a lottare per il nostro diritto alla rabbia.

Questo mese, il braccio mobile dell'impero tecnologico SoftBank di Masayoshi Son, quotato separatamente, ha rivelato che stava sviluppando un sistema basato sull'intelligenza artificiale per proteggere i lavoratori intimiditi nei call center dalle diatribe a valle e dall'ampia gamma di abusi verbali che rientrano nella definizione delle molestie dei clienti.

Non è chiaro se SoftBank stesse deliberatamente cercando di evocare la distopia quando ha chiamato questo progetto, ma “EmotionCancelling Voice Conversion Engine” ha una desolazione che farebbe diventare verde George Orwell.

La tecnologia, sviluppata presso un istituto di ricerca sull’intelligenza artificiale fondato da SoftBank e dall’Università di Tokyo, è ancora in fase di ricerca e sviluppo e la prima versione demo suggerisce che c’è ancora molto lavoro da fare. Ma il principio funziona già ed è strano come potresti aspettarti.

In teoria, l’intelligenza artificiale che altera la voce cambia lo sfogo di un chiamante umano arrabbiato in tempo reale in modo che la persona dall’altra parte senta solo una versione attenuata e innocua. Il vocabolario originale del chiamante rimane intatto (per ora; dai tempo a Distopia per risolverlo). Ma, dal punto di vista tonale, la rabbia viene cancellata. La commercializzazione e l’installazione nei call center, secondo SoftBank, possono essere previste prima di marzo 2026.

L'intelligenza artificiale di SoftBank che altera la voce

Come per molti di questi progetti, gli esseri umani hanno collaborato per denaro con i loro futuri padroni dell’intelligenza artificiale. Il motore EmotionCancelling è stato addestrato utilizzando attori che hanno eseguito un'ampia gamma di frasi rabbiose e una gamma di modi per dare sfogo all'ira, come urlare e strillare. Questi forniscono all'IA le altezze e le inflessioni da rilevare e sostituire.

Metti da parte i vari paesaggi infernali evocati da questa tecnologia. I meno fantasiosi tra noi possono vedere come l’alterazione della voce in tempo reale potrebbe aprire molti percorsi pericolosi. Il problema, per ora, è la proprietà: la fulminea evoluzione dell’intelligenza artificiale sta già mettendo a dura prova le questioni relative alla proprietà della voce da parte di celebrità e altri; L'esperimento di SoftBank sta testando la proprietà delle emozioni.

Il progetto di SoftBank era chiaramente ben intenzionato. A quanto pare l’idea è venuta a uno degli ingegneri dell’azienda che guardavano un film sull’aumento degli abusi tra i clienti giapponesi nei confronti dei lavoratori del settore dei servizi – un fenomeno che alcuni attribuiscono all’irritabilità di una popolazione che invecchia e all’erosione degli standard di servizio a causa della grave carenza di manodopera.

Il motore EmotionCancelling viene presentato come una soluzione all'intollerabile carico psicologico imposto agli operatori dei call center e allo stress di essere sgridati. Oltre a togliere alle invezioni il loro tono spaventoso, l’intelligenza artificiale interverrà per terminare le conversazioni che ritiene siano state troppo lunghe o vili.

Ma la tutela dei lavoratori non dovrebbe essere l’unica considerazione. La rabbia può essere una cosa molto spiacevole e spaventosa da ricevere, ma può essere legittima e bisogna essere cauti nel scriverla artificialmente fuori dal copione delle relazioni con il cliente, in particolare se aumenta solo quando il cliente si rende conto che la rabbia espressa viene repressa da un macchina.

Le aziende di tutto il mondo possono – e lo fanno – mettere in guardia i clienti dagli abusi sul personale. Ma rimuovere la rabbia dalla voce di qualcuno senza il suo permesso (o seppellendo quel permesso in caratteri piccoli) supera una linea importante, soprattutto quando l'intelligenza artificiale è incaricata della rimozione.

La linea oltrepassata è dove l'emozione di una persona, o un certo tono di voce, viene mercificato per il trattamento e la neutralizzazione. La rabbia è un bersaglio facile da eliminare, ma perché non fare in modo che l’intelligenza artificiale protegga gli operatori dei call center dalla delusione, dalla tristezza, dall’urgenza, dalla disperazione o addirittura dalla gratitudine? Cosa accadrebbe se si decidesse che alcuni accenti regionali sono più minacciosi di altri e venissero filtrati da un algoritmo all’insaputa dei loro proprietari?

In una vasta serie di saggi pubblicato la settimana scorsaLeopold Aschenbrenner, ex ricercatore di OpenAI che ha lavorato per proteggere la società dalla tecnologia, ha avvertito che mentre tutti parlano di intelligenza artificiale, “pochi hanno il più pallido barlume di ciò che li colpirà”.

La nostra migliore strategia, di fronte a tutto ciò, potrebbe essere quella di rimanere matti da morire.

[email protected]