Uno dei modi in cui io e il mio partner siamo adatti è che a entrambi piacciono i giochi da tavolo e io non sono molto bravo con loro. Questo aiuta, perché il mio partner è un vincitore gentile ma un perdente spaventoso. Una volta, nella sua prima adolescenza, durante una partita a dama con sua sorella, ha risposto a una posizione invincibile capovolgendo il tavolo.

Se l’intelligenza artificiale distruggerà la vita umana, sarà quasi sicuramente più simile alla reazione del mio partner alla sconfitta che all’intelligenza distruttiva del Terminatore film. La catastrofe non arriverà quando un’intelligenza sofisticata deciderà di usare il suo potere per il male deliberato, ma quando il modo più semplice per adempiere alla sua programmazione e “vincere” sarà capovolgere il tavolo.

La minaccia che l’intelligenza artificiale possa causare una sorta di disastro sociale è, ovviamente, una ragione per cui dovremmo preoccuparci della ricerca, dell’etica e della trasparenza. Ma questa focalizzazione sul potenziale di una catastrofe a volte può distrarre dai pericoli più banali. Se il tuo navigatore satellitare ti dirige verso il bordo di una scogliera, come è successo nel 2009, quando Robert Jones è stato condannato per non aver guidato con la dovuta cura e attenzione, allora non è una tragedia a livello sociale. Ma può essere personale se ti porta a perdere la vita, il lavoro o anche solo la patente.

Una spiacevole conseguenza delle continue terribili previsioni sulle conseguenze peggiori in assoluto dell’intelligenza artificiale o dei programmi di apprendimento automatico è che incoraggiano una sorta di compiacimento “beh, non ci hanno ancora ucciso” sulla loro attuale prevalenza nelle politiche pubbliche e nel processo decisionale aziendale .

Un problema più comune è che, sia per i responsabili politici che per i leader aziendali, la parola “algoritmo” a volte può essere intrisa di poteri magici. Un buon esempio recente è il tentativo fallito del governo del Regno Unito di assegnare voti agli studenti durante la pandemia. Ma un algoritmo è semplicemente un insieme di dati alimentati attraverso regole o formule matematiche per produrre un risultato. Dato che nessuno studente del Regno Unito seduto ai propri GCSE o A-level aveva molto in termini di dati significativi sulle proprie prestazioni, l’“algoritmo” del Regno Unito era essenzialmente arbitrario a livello individuale. Il risultato fu una protesta pubblica, un algoritmo abbandonato e un’inflazione dilagante.

L’uso più preoccupante degli algoritmi in politica sono i cosiddetti “algoritmi della scatola nera”: quelli in cui gli input e i processi sono nascosti alla vista del pubblico. Ciò può essere dovuto al fatto che sono considerate informazioni proprietarie: ad esempio, i fattori alla base del sistema Compas, utilizzato negli Stati Uniti per misurare la probabilità di recidiva, non sono disponibili al pubblico perché sono trattati come proprietà dell’azienda.

Ciò pone inevitabilmente problemi per la democrazia. Qualsiasi sistema progettato per misurare la probabilità che qualcuno recidivi deve scegliere tra lasciar uscire coloro che potrebbero effettivamente continuare a recidivare o continuare a imprigionare persone che sono pronte a diventare membri produttivi della società. Non c’è una risposta “giusta” o “equa” qui: gli algoritmi possono modellare il tuo processo decisionale, ma il giudizio in definitiva è quello che deve essere espresso dai politici e, indirettamente, dai loro elettori.

Come ha osservato lo statistico David Spiegelhalter, non vi è alcuna differenza pratica tra i giudici che utilizzano algoritmi e i giudici che seguono le linee guida di condanna. La differenza importante è unicamente e significativamente che le linee guida sulla condanna sono chiaramente comprese, pubblicamente disponibili e soggette a dibattito democratico.

L’algoritmo dell’esame condannato nel Regno Unito non era una “scatola nera” a causa delle leggi sulla proprietà intellettuale o del desiderio di un’azienda di proteggere i propri interessi, ma il risultato della preferenza predefinita dello stato britannico per un processo decisionale opaco. Se i meccanismi del processo fossero stati resi disponibili in precedenza, l’opposizione politica ad esso sarebbe diventata chiara in tempo per trovare una soluzione più appetibile.

L’altra forma di algoritmo della scatola nera è quella in cui le informazioni sono pubblicamente disponibili ma troppo complesse per essere facilmente comprese. Questo, ancora una volta, può avere terribili implicazioni. Se l’algoritmo che decide chi viene licenziato non può essere ragionevolmente compreso dai dipendenti o, in effetti, dai datori di lavoro, allora è uno strumento scadente per i manager e causa infelicità. Nelle politiche pubbliche, se le operazioni di un algoritmo sono troppo complesse, possono confondere il dibattito piuttosto che aiutare i responsabili politici a prendere decisioni migliori.

Spiegelhalter propone un processo in quattro fasi per algoritmi e apprendimento automatico nelle politiche pubbliche e sul posto di lavoro, paragonabile al processo che i prodotti farmaceutici del Regno Unito devono attraversare per essere approvati. Uno dei motivi per cui il piano è valido è che potrebbe evitare un errore che mette fine al mondo: ma potrebbe anche evitare tragedie minori e fallimenti delle politiche pubbliche.

[email protected]