Illustrazione di Andy Carter di un uomo in giacca e cravatta che parla con un robot su uno schermo video all'altezza della testa, dove è in grado di vedere solo il volto umano del robot.  Stanno stringendo la mano sotto lo schermo, che ha una mappa del mondo come sfondo

Ricordo la prima bugia di mia figlia. Era in piedi con le spalle al muro del soggiorno, pastello in mano, cercando di nascondere uno scarabocchio espansivo. La sua spiegazione era creativa quanto il suo lavoro manuale: “Papà fallo”.

L’inganno è una pietra miliare nello sviluppo cognitivo perché richiede una comprensione di come gli altri potrebbero pensare e agire. Tale capacità è in mostra, in misura limitata, in Cicerone, un sistema di intelligenza artificiale progettato per giocare a Diplomacy, un gioco di strategia in tempo di guerra in cui i giocatori negoziano, stringono alleanze, bluffano, nascondono informazioni e talvolta fuorviano. Cicerone, sviluppato da Meta e che prende il nome dal famoso oratore romano, ha contrapposto il suo ingegno artificiale a giocatori umani online e ha superato la maggior parte di loro.

L’arrivo di un’intelligenza artificiale in grado di giocare con la stessa competenza delle persone, rivelato la scorsa settimana sulla rivista Science, apre la porta a interazioni uomo-IA più sofisticate, come chatbot migliori e risoluzione ottimale dei problemi in cui il compromesso è essenziale. Ma, dato che Cicerone dimostra che l’intelligenza artificiale può, se necessario, utilizzare tattiche subdole per raggiungere determinati obiettivi, la creazione di una macchina machiavellica solleva anche la questione di quanta agenzia dovremmo esternalizzare agli algoritmi e se una tecnologia simile dovrebbe mai essere impiegata in diplomazia del mondo reale.

L’anno scorso, l’UE ha commissionato uno studio sull’uso dell’intelligenza artificiale nella diplomazia e sul suo probabile impatto sulla geopolitica. “Noi esseri umani non siamo sempre bravi a risolvere i conflitti”, afferma Huma Shah, esperto di etica dell’IA presso la Coventry University nel Regno Unito. “Se l’intelligenza artificiale può integrare la negoziazione umana e fermare ciò che sta accadendo in Ucraina, allora perché no?”

Come gli scacchi, il gioco della diplomazia può essere giocato su una scacchiera o online. Fino a sette giocatori competono per controllare diversi territori europei. In un round iniziale di vera e propria diplomazia, i giocatori possono stringere alleanze o accordi per mantenere le loro posizioni o spostare le forze, anche per attaccare o difendere un alleato.

Il gioco è considerato una sorta di grande sfida nell’IA perché, oltre alla strategia, i giocatori devono essere in grado di comprendere le motivazioni degli altri. C’è sia cooperazione che competizione, con il rischio di tradimento.

Ciò significa che, a differenza degli scacchi o del Go, la comunicazione con gli altri giocatori è importante. Cicerone, quindi, combina il ragionamento strategico dei giochi tradizionali con l’elaborazione del linguaggio naturale. Durante una partita, l’IA calcola come potrebbero comportarsi gli altri giocatori nelle negoziazioni. Quindi, generando messaggi formulati in modo appropriato, persuade, persuade o costringe altri giocatori a stringere partnership o concessioni per eseguire il proprio piano di gioco. I metascienziati hanno addestrato Cicerone utilizzando i dati online di circa 40.000 giochi, inclusi 13 milioni di messaggi di gioco.

Dopo aver giocato contro 82 persone in 40 partite in un campionato online anonimo, Cicerone si è classificato tra i primi 10 per cento dei partecipanti che hanno giocato più di una partita. Ci sono stati intoppi: a volte sputava messaggi contraddittori sui piani di invasione, confondendo i partecipanti. Tuttavia, solo un avversario sospettava che Cicerone potesse essere un bot (tutto è stato rivelato in seguito).

Il professor David Leslie, esperto di etica dell’intelligenza artificiale presso la Queen Mary University e l’Alan Turing Institute, entrambi a Londra, descrive Cicerone come un “Frankenstein tecnicamente molto esperto”: un’impressionante combinazione di più tecnologie ma anche una finestra su un futuro inquietante. Un rapporto della commissione parlamentare del Regno Unito del 2018 consigliava che l’IA non dovrebbe mai essere investita del “potere autonomo di ferire, distruggere o ingannare gli esseri umani”.

La sua prima preoccupazione è l’inganno antropomorfo: quando una persona crede erroneamente, come ha fatto un avversario, che ci sia un altro essere umano dietro lo schermo. Ciò può spianare la strada alla manipolazione delle persone da parte della tecnologia.

La sua seconda preoccupazione è l’intelligenza artificiale dotata di astuzia ma priva del senso dei concetti morali fondamentali, come l’onestà, il dovere, i diritti e gli obblighi. “Un sistema viene dotato della capacità di ingannare ma non opera nella vita morale della nostra comunità”, afferma Leslie. “Per affermare l’ovvio, un sistema di intelligenza artificiale è, a livello di base, amorale.” L’intelligenza di Cicerone, pensa, si applica meglio a difficili problemi scientifici come l’analisi meteorologica, non a delicate questioni geopolitiche.

È interessante notare che i creatori di Cicerone affermano che i suoi messaggi, filtrati per un linguaggio tossico, finissero per essere “in gran parte onesti e utili” per altri giocatori, ipotizzando che il successo potesse derivare dalla proposta e dalla spiegazione di mosse reciprocamente vantaggiose. Forse, invece di meravigliarci di quanto bene Cicerone giochi la diplomazia contro gli umani, dovremmo disperarci di quanto male gli umani giochino alla diplomazia nella vita reale.