Alcuni anni fa sono stato trascinato davanti a tre magistrati in un tribunale del sud di Londra, il culmine di un incubo burocratico durato mesi che mi ha portato a una condanna penale per non essere stato in grado di dimostrare di aver pagato un biglietto dell’autobus di £ 1,50 quando il mio il telefono ha esaurito la batteria.

Dopo aver raccontato nervosamente la mia intricata storia di dolore, sono stato vendicato: mi è stato detto che la mia convinzione sarebbe stata ritirata. “Scommetto che sei molto sollevato”, mi disse il presidente della giustizia con un sorriso comprensivo. Lo ero davvero.

Ma tale interazione umana nel sistema giudiziario potrebbe diventare più rara. Diversi paesi stanno sperimentando l’utilizzo di algoritmi basati sull’intelligenza artificiale per emettere giudizi, sostituendo gli esseri umani con i cosiddetti “giudici robot” (sebbene nessun robot sia coinvolto).

Gli argomenti principali a favore dell’aggiudicazione guidata dall’intelligenza artificiale ruotano attorno a due presunti vantaggi: una maggiore efficienza e la possibilità di ridurre i pregiudizi umani, l’errore e il “rumore”. Quest’ultimo si riferisce alla variabilità indesiderata tra i giudizi che potrebbero essere influenzati da fattori come quanto è stanco un giudice o come si è comportata la sua squadra sportiva la sera prima.

Tuttavia, ci sono forti ragioni per essere prudenti. Ad esempio, si teme che, contrariamente alla rimozione di pregiudizi e discriminazioni, gli algoritmi basati sull’intelligenza artificiale – che utilizzano la potenza di elaborazione bruta sui dati umani, trovando modelli, categorizzando e generalizzando – duplicheranno e rafforzeranno quelli già esistenti. Alcuni studi hanno mostrato questo succede.

Gli argomenti più comuni contro l’aggiudicazione guidata dall’intelligenza artificiale, come questo, riguardano i risultati. Ma in bozza documento di ricercaJohn Tasioulas, direttore dell’Institute for Ethics in AI dell’università di Oxford, afferma che dovrebbe essere prestata maggiore attenzione al processo mediante il quale si arriva ai giudizi.

Tasioulas cita un passaggio di Platone Le leggi, in cui Platone descrive la differenza qualitativa tra un “medico libero” – uno che è formato e può spiegare il trattamento al suo paziente – e un “medico schiavo”, che non sa spiegare cosa sta facendo e invece lavora per tentativi ed errori. Anche se entrambi i medici riportano i loro pazienti in salute, l’approccio del medico libero è superiore, sostiene Platone, perché è in grado di mantenere il paziente collaborativo e di insegnare mentre va. Il paziente non è quindi solo un soggetto, ma anche un partecipante attivo.

Come Platone, Tasioulas usa questo esempio per argomentare perché il processo è importante in diritto. Potremmo pensare al dottore schiavo come a un algoritmo, che distribuisce il trattamento sulla base di qualcosa di simile all’apprendimento automatico, mentre il modo in cui il dottore libero tratta i suoi pazienti ha valore in sé e per sé. E solo il processo attraverso il quale un giudice umano arriva a una decisione finale può fornire tre importanti valori intrinseci.

Il primo è la spiegabilità. Tasioulas sostiene che anche se un algoritmo guidato dall’intelligenza artificiale potesse essere programmato per fornire una sorta di spiegazione della sua decisione, questo potrebbe essere solo un ex post razionalizzazione piuttosto che una vera e propria giustificazione, dato che la decisione non è pervenuta attraverso il tipo di processi di pensiero che un essere umano utilizza.

Il secondo è la responsabilità. Poiché un algoritmo non ha autonomia razionale, non può essere ritenuto responsabile dei suoi giudizi. “Come agente razionale autonomo che può fare delle scelte. . . Posso essere ritenuto responsabile di queste decisioni in un modo che una macchina non può”, mi dice Tasioulas.

Il terzo è la reciprocità: l’idea che ci sia valore nel dialogo tra due agenti razionali, il contendente e il giudice, che forgia un senso di comunità e solidarietà.

C’è un aspetto disumanizzante nella giustizia algoritmica che deriva dalla mancanza di questi tre elementi. Ci sono anche altri problemi, come la misura in cui l’utilizzo dell’aggiudicazione guidata dall’intelligenza artificiale trasferirebbe l’autorità legale dagli enti pubblici alle entità private che costruiscono gli algoritmi.

Ma per Richard Susskind, consulente tecnologico del Lord Chief Justice del Regno Unito, mentre ci sono molti argomenti validi contro la giustizia guidata dall’IA, c’è anche un urgente bisogno morale di rendere il processo legale più accessibile. L’automazione può aiutare ad affrontare questo problema. Secondo l’OCSE, meno della metà della popolazione mondiale vive sotto la protezione della legge; Il Brasile ha un arretrato di 100 milioni di cause giudiziarie, mentre l’India ne ha 30 milioni.

“È un divario su scala mostruosa”, mi dice Susskind. “Ciò che molti di noi sono. . . cercare di fare è ridurre l’ingiustizia manifesta, piuttosto che ottenere una giustizia metafisica e perfetta.

Come recita l’aforisma, non dobbiamo lasciare che il perfetto sia nemico del bene. “Il computer dice di no” — lo slogan di a Piccola Gran Bretagna Lo sketch televisivo potrebbe essere una forma di giustizia altamente imperfetta e spesso frustrante, ma l’accesso a un sistema giudiziario imperfetto è sicuramente meglio che non accedervi affatto.

[email protected]