Dom. Ott 13th, 2024

Rimani informato con aggiornamenti gratuiti

Poco prima dell’inizio del vertice internazionale sull’intelligenza artificiale a Bletchley Park il mese scorso, sono andato a mangiare un boccone in un pub vicino. Un uomo si sedette di fronte a me e tirò fuori un tascabile spiegazzato. In copertina c’era Isaac Asimov, uno dei più famosi autori di fantascienza. Sicuramente questa non è stata una coincidenza. Asimov era in anticipo sui tempi quando, durante la metà del XX secolo, anticipò il potente ruolo che l’intelligenza artificiale avrebbe avuto nelle nostre vite. Nei suoi libri, prevedeva una serie di leggi che avrebbero garantito che i robot non ferissero o danneggiassero gli esseri umani, ma che li obbedissero.

Quell’uomo con il suo libro mi ha ricordato l’importanza per noi politici di ottenere un risultato simile mentre mi dirigevo al vertice per discutere del futuro dell’IA sicura. Durante i miei viaggi a Londra, Tokyo, Washington, Pechino e ovviamente Bruxelles lo scorso autunno, ho riflettuto sul fatto che stavamo scrivendo il primo libro di regole al mondo per regolamentare i processi informatici che sono molto più veloci e più potenti di quelli umani.

Il vero business superò rapidamente la fantascienza. Con i politici cinesi a Pechino ho discusso del loro modello di legislazione. Non differisce tanto dal nostro per quanto riguarda l’aspetto tecnico delle cose, ma piuttosto per il contributo che potrebbe dare al controllo statale sulla società. I rappresentanti degli Stati Uniti, che in precedenza avevano un approccio piuttosto non regolamentato, hanno fatto riferimento all’ordine esecutivo dell’amministrazione Biden sull’intelligenza artificiale a fine ottobre. E più vicino a casa, a nome dell’UE, ho condotto i negoziati nel gruppo di paesi del G7. Lì siamo stati in grado di ottenere una legislazione pre-vincolante a livello globale: un codice volontario per gli sviluppatori di intelligenza artificiale che prevede la responsabilità per la sicurezza e la condivisione delle informazioni.

Anche l’Europa ha risposto rapidamente alla domanda di un’IA sicura. Il quadro proposto per il 2021 ha accelerato man mano che è diventata evidente l’urgente necessità di rendere la tecnologia sicura e vantaggiosa. Il cosiddetto trilogo – il gran finale tra la presidenza spagnola, il parlamento e la commissione – è durato 36 ore questo mese ma alla fine si è concluso con un compromesso storico.

Le esigenze delle persone hanno guidato ogni paragrafo. La legge garantisce la sicurezza e la tutela dei diritti umani fondamentali di fronte ai sistemi superintelligenti, che alla lunga potrebbero rivelarsi pensatori migliori di noi. Abbiamo ideato diverse categorie di rischio per l’intelligenza artificiale: quelle a basso rischio includono videogiochi e algoritmi per sistemare le nostre e-mail (cose da cui sono sicuro che tutti trarremmo beneficio). Quelli ad alto rischio dovranno soddisfare requisiti più severi, che si tratti di dispositivi medici o di influenzare il comportamento degli elettori alle urne.

L’elenco delle cose inaccettabili comprende ciò che minaccia i nostri diritti umani fondamentali. Ciò potrebbe includere sistemi di smistamento biometrico basati sulla religione o sulla razza, il riconoscimento delle emozioni sul posto di lavoro o l’estrazione non mirata di volti dalle telecamere in luoghi pubblici (saranno fatte eccezioni per questioni di sicurezza nazionale).

Ma siamo anche consapevoli dei potenziali vantaggi di un’IA sicura e vogliamo effettivamente fare dell’UE un hub per questo scopo. Ecco perché abbiamo deciso di mettere i nostri supercomputer a disposizione delle start-up e delle PMI europee legate all’intelligenza artificiale. Investiremo inoltre più di 1 miliardo di euro all’anno nella ricerca sull’intelligenza artificiale di Horizon e Digital Europe.

Il nostro accordo politico deve ancora essere confermato dagli Stati membri e dal Parlamento europeo. La legge entrerà in vigore per fasi, mentre l’intera legislazione è provvisoriamente fissata per il 2026. Nel frattempo, l’intelligenza artificiale continuerà a trasformare le nostre vite. Gli affideremo molte attività in cui potrebbe sostituire gli esseri umani, ma non quelle in cui potrebbe impossessarsi dei nostri diritti fondamentali, come la libertà di parola o la protezione della proprietà intellettuale.

Ho creduto fin dall’inizio che i contenuti creati dall’intelligenza artificiale dovessero essere etichettati, in modo che al pensiero e alla creatività umana rimanesse qualcosa di simile al “diritto d’autore umano”. Stiamo già imparando come la tecnologia può cambiare la nostra percezione della realtà e della verità. L’intelligenza artificiale funziona con i dati che ha a disposizione. Non sa cosa sia vero. E in un mondo in cui i deepfake possono spuntare dal nulla, corriamo sempre il pericolo di perdere la presa sulla realtà.

Questo è ciò a cui stavo pensando quando l’inglese dall’altra parte del tavolo mi ha ricordato le leggi di Asimov. Queste sono state ora trasformate, insieme ad altre misure, nella prima norma giuridica europea, che potrebbe diventare la base per tutte le normative simili in tutto il mondo. Dobbiamo mantenere il controllo dei robot e dell’intelligenza artificiale, per garantire che la verità e i diritti umani possano prevalere in futuro anziché diventare fantascienza.