Rimani informato con aggiornamenti gratuiti
La coniugazione della tecnologia moderna tende ad essere: gli Stati Uniti innovano, la Cina emula e l’Europa regola. Questo sembra certamente essere il caso dell’intelligenza artificiale.
Dopo mesi di intense attività di lobbying e quasi 40 ore di discussioni notturne, i politici europei esausti hanno presentato lo scorso venerdì sera l’AI Act e hanno celebrato la legislazione più completa al mondo che disciplina la tecnologia trasformativa. Ci vorranno ancora molti mesi prima che la formulazione definitiva venga concordata e che la legge venga adottata dalle legislature nazionali e dal Parlamento europeo. Ma da oltreoceano arrivarono subito sbuffi di derisione.
Anand Sanwal, amministratore delegato della società di dati CB Insights con sede a New York, ha scritto che l’UE ora avevano più normative sull’intelligenza artificiale rispetto alle società di intelligenza artificiale significative. “Quindi mi congratulo di cuore con l’UE per la sua legislazione fondamentale sull’intelligenza artificiale e per i continui sforzi per rimanere un mercato di hamburger per l’innovazione tecnologica. Bravo!”
I legislatori europei ribatterebbero che anche le grandi società statunitensi di intelligenza artificiale, tra cui Google, Microsoft e OpenAI, accettano che la regolamentazione è essenziale e che l’UE è determinata, per quanto imperfetta, ad affrontare una delle più grandi sfide di governance della nostra epoca. Buona fortuna nell’approvazione di una legislazione federale comparabile negli Stati Uniti, dato lo stallo politico a Washington.
Inoltre, la legge contiene indubbiamente alcuni vincoli importanti sull’uso dell’IA. Il libertario civile che è in me applaude il divieto dell’uso indiscriminato della tecnologia di riconoscimento facciale, del punteggio sociale e della polizia predittiva (anche se gli Stati membri hanno ritagliato alcune esenzioni per problemi di sicurezza nazionale). I cittadini della maggior parte dei paesi si ribellerebbero se fossero costretti a fornire le impronte digitali mentre fanno la spesa ogni sabato pomeriggio. Perché la tecnologia di riconoscimento facciale abilitata all’intelligenza artificiale dovrebbe essere diversa?
Per una buona ragione, la legge obbliga inoltre le aziende a segnalare ogni volta che un utente interagisce con un chatbot e ad etichettare i contenuti sintetici generati dall’intelligenza artificiale per prevenire inganni. Con un po’ di fortuna, ciò potrebbe contribuire a frenare la diffusione della disinformazione, come quella che ha recentemente rovinato le elezioni in Bangladesh. I cittadini potranno inoltre denunciare gli abusi della tecnologia grazie al nuovo Ufficio europeo per l’intelligenza artificiale. Le autorità di regolamentazione avranno il potere di multare i criminali fino al 7% del loro fatturato globale.
Ma, come sempre, la preoccupazione riguardo alla regolamentazione è se questa possa soffocare l’innovazione a monte. In una certa misura, ovviamente, questo è lo scopo. In un momento in cui molti ricercatori sull’intelligenza artificiale chiedono una pausa nello sviluppo di modelli di frontiera, l’intenzione dei legislatori è quella di prevenire l’innovazione dannosa. La domanda più complicata è: ostacolerà inavvertitamente anche il bene? Sfortunatamente, la risposta è probabilmente sì.
I governi francese e tedesco avevano già attenuato le precedenti bozze della legge per contribuire a limitare i requisiti di test e trasparenza sui loro campioni nazionali di intelligenza artificiale, Mistral e Aleph Alpha. Ciononostante, in un discorso a Tolosa questa settimana, il presidente francese Emmanuel Macron ha espresso insoddisfazione per il disordinato compromesso. “Possiamo decidere di regolamentare molto più velocemente e in modo molto più forte rispetto ai nostri principali concorrenti. Ma regoleremo cose che non produrremo né inventeremo più. Questa non è mai una buona idea”, ha detto.
Alcuni Startup europeeinclusa Aleph Alpha, hanno affermato che ora potrebbero trovarsi in una situazione di svantaggio competitivo e dovranno spendere di più per gli avvocati e meno per gli ingegneri del software.
Quando ho chiesto a Nathan Benaich, un investitore della società di venture capital londinese Air Street Capital, se sarebbe stato più o meno propenso a investire in società di intelligenza artificiale con sede nell’UE a seguito dell’atto, ha risposto: “Meno probabile”. Allo stato attuale, Air Street ha investito l’86% dei suoi fondi focalizzati sull’intelligenza artificiale negli Stati Uniti, nel Regno Unito e in Canada, con meno del 10% destinato a start-up con sede nell’UE. “È innegabile che gli imprenditori avvertono di nuovo l’energia di San Francisco”, afferma Benaich.
Oltre a preoccuparsi dei rischi dell’intelligenza artificiale, l’UE dovrebbe essere molto più attiva nel promuovere le possibilità produttive della tecnologia, soprattutto in settori quali l’assistenza sanitaria, l’istruzione e la transizione energetica. A tal fine, l’UE dovrebbe collaborare con le università, l’industria e gli investitori per creare uno “stack europeo” che rafforzerebbe le sue capacità di ricerca e sviluppo e costruirebbe un’infrastruttura digitale pubblica, sostenuta da un fondo di sovranità digitale da 10 miliardi di euro. suggerisce Francesca Bria, ex presidente del Fondo nazionale per l’innovazione.
Sarebbe sconsiderato fare affidamento sull’approccio della Silicon Valley allo sviluppo della tecnologia, cercando semplicemente di reindirizzarlo. L’Europa deve imparare ad amare l’intelligenza artificiale e inventare un proprio futuro alternativo.