Il mondo sarebbe stato un posto molto più oscuro se la Germania nazista avesse battuto gli Stati Uniti per costruire la prima bomba atomica del mondo. Per fortuna, l’odio controproducente per il regime di Adolf Hitler ha sabotato i suoi stessi sforzi. Una legge del 1933 che licenziava i “funzionari pubblici di origine non ariana” privò un quarto dei fisici tedeschi dei loro incarichi universitari. Come ha notato lo storico Richard Rhodes, 11 di quei 1.600 studiosi avevano già guadagnato, o avrebbero guadagnato, il Premio Nobel. I rifugiati scientifici dell’Europa nazista furono in seguito al centro del progetto della bomba atomica di Manhattan negli Stati Uniti.

L’agonizzante ricerca interiore degli scienziati sulla costruzione di armi nucleari risuona fortemente oggi mentre i ricercatori sviluppano sistemi di intelligenza artificiale che sono sempre più adottati dai militari. Per quanto entusiasti degli usi pacifici dell’IA, i ricercatori sanno che si tratta di una tecnologia generica a doppio uso che può avere applicazioni altamente distruttive. Il Ferma la coalizione dei robot assassini, con oltre 180 organizzazioni membri non governative provenienti da 66 paesi, sta conducendo una dura campagna per mettere fuori legge i cosiddetti sistemi d’arma autonomi letali, alimentati dall’IA.

La guerra in Ucraina ha aumentato l’urgenza del dibattito. All’inizio di questo mese, Lo ha annunciato la Russia che aveva creato un dipartimento speciale per sviluppare armi abilitate all’IA. Ha aggiunto che la sua esperienza in Ucraina aiuterebbe a rendere le sue armi “più efficienti e più intelligenti”. Le forze russe lo hanno già fatto ha schierato il robot autonomo per lo sminamento Uran-6 così come il Drone suicida senza pilota KUB-BLAche secondo il suo produttore utilizza l’IA per identificare gli obiettivi (sebbene queste affermazioni siano contestate da esperti).

Il presidente russo Vladimir Putin ha parlato delle “opportunità colossali” dell’IA. “Chiunque diventerà il leader in questa sfera diventerà il sovrano del mondo”, ha detto. Tuttavia, gli sforzi del Cremlino per sviluppare armi abilitate all’IA saranno sicuramente ostacolati dal recente esodo di 300.000 russi, molti provenienti dal settore tecnologico, e dalle scarse prestazioni delle sue forze convenzionali.

L’iniziativa russa ha seguito l’annuncio del Pentagono lo scorso anno che stava intensificando gli sforzi per raggiungere la superiorità dell’IA. Il Dipartimento della Difesa degli Stati Uniti stava “lavorando per creare un vantaggio militare competitivo abbracciando e sfruttando l’IA”, ha affermato Kathleen Hicks, il vice segretario alla difesa. Anche la Cina ha sviluppato l’IA per usi sia economici che militari con il chiaro obiettivo di superare gli Stati Uniti, in quella che è stata chiamata la corsa agli armamenti dell’IA.

Sebbene gran parte del dibattito sull’uso delle armi nucleari sia stato relativamente chiaro e confinato per decenni, non importa quanto terrificante, la discussione sull’IA è molto più confusa e caleidoscopica. Ad oggi, solo nove stati nazionali hanno sviluppato armi nucleari. Solo due bombe atomiche sono mai state usate nella guerra moderna, a Hiroshima e Nagasaki nel 1945. Il loro spaventoso potere distruttivo le ha rese armi di ultima istanza.

L’IA, invece, è meno visibile, più diffusa e più imprevedibile a causa della sua soglia di utilizzo più bassa, come ha scritto il veterano stratega Henry Kissinger. Forse è meglio visto come un moltiplicatore di forza che può essere utilizzato per migliorare le capacità di droni, armi informatiche, batterie antiaeree o truppe da combattimento. Alcuni strateghi temono che le democrazie occidentali possano essere svantaggiate rispetto ai regimi autoritari a causa dei maggiori vincoli etici. Nel 2018, più di 3.000 dipendenti di Google hanno firmato una lettera dicendo che la compagnia “non dovrebbe essere nel business della guerra” e chiedendo (con successo) il suo ritiro dal Progetto Maven del Pentagono, progettato per applicare l’IA al campo di battaglia.

Il Pentagono ora sottolinea l’importanza di sviluppare sistemi di intelligenza artificiale “responsabili”, governati da valori, controlli e leggi democratici. La guerra in Ucraina potrebbe anche influenzare l’opinione pubblica, soprattutto in Europa. “I giovani si preoccupano del cambiamento climatico. E ora si preoccupano di vivere in società aperte”, mi dice Torsten Reil, co-fondatore di Helsing, una start-up tedesca che utilizza l’IA per integrare i dati del campo di battaglia. “Se vogliamo vivere in una società aperta, dobbiamo essere in grado di scoraggiare e difendere e farlo in modo credibile”.

Per alcuni, questo potrebbe avere il sapore di un cinico rebranding dell’industria della morte. Ma come hanno appreso i fisici durante la seconda guerra mondiale, è difficile essere moralmente puri quando devono essere fatte scelte orribili nel mondo reale. A loro grande merito, molti ricercatori di intelligenza artificiale stanno oggi premendo per convenzioni internazionali significative per limitare robot killer altrimenti incontrollabili. Ma sarebbe sconsiderato rinunciare all’uso responsabile della tecnologia dell’IA per difendere le società democratiche.

[email protected]