Sblocca gratuitamente il digest dell'editore
Gli architetti del punto di riferimento dell'UE Artificial Intelligence Act hanno esortato a Bruxelles a fermare le mosse “pericolose” per annaffiare le regole, che risparmierebbero grandi gruppi tecnologici statunitensi come Openi e Google da elementi chiave della legge.
La Commissione europea, il braccio esecutivo del blocco, sta tenendo discussioni che potrebbero comportare più parti della legge – considerato il regime più severo del mondo che regola lo sviluppo dell'IA – diventando volontario piuttosto che obbligatorio.
Ciò include disposizioni progettate per forzare le aziende di intelligenza artificiale per garantire che i modelli all'avanguardia non producano contenuti violenti e falsi o che siano utilizzati nelle interferenze elettorali. La mossa arriva a seguito di intensi pressioni di Donald Trump e dei grandi giganti della tecnologia che sfidano gli sforzi europei per regolare lo sviluppo dell'IA.
Aderente a tali richieste è “pericoloso, non democratico e crea incertezza legale”, secondo una lettera al capo dell'henné digitale della Commissione Virkkunen da diversi importanti membri del parlamento europeo coinvolti nella regolamentazione dell'IA.
“Se i fornitori dei modelli di intelligenza artificiale generale più impattanza dovessero adottare posizioni politiche più estreme, attuare politiche che minano l'affidabilità dei modelli, facilitano l'interferenza estera o la manipolazione elettorale, contribuiscono a discriminazione, limitare la libertà di informazione o diffondere il contenuto illegale, le conseguenze potrebbero interrompere profondamente l'economia e la democrazia dell'Europa”, hanno scritto gli MEPS.
I firmatari della lettera includono la maggior parte dei deputati che hanno negoziato la legge AI e Carme Artigas, ex ministro spagnolo per la digitalizzazione e l'IA che ha guidato i negoziati per conto degli Stati membri dell'UE quando la versione finale della legge AI è stata concordata nel dicembre 2023.
La legge AI dell'UE classifica la tecnologia in tre categorie in base al rischio che pone per la salute e la sicurezza umana, ad esempio se ha applicazioni mediche o viene utilizzato nei trasporti pubblici. Maggiore è la categoria di rischio, maggiori sono i requisiti di segnalazione. Anche potenti modelli di intelligenza artificiale affrontano obblighi extra, come dover essere più trasparenti su come vengono addestrati i modelli.
L'attuale dibattito circonda la redazione di un “codice di pratica” che fornirà una guida alle società di intelligenza artificiale su come implementare l'atto che si applica a potenti modelli di intelligenza artificiale come Google's Gemini, Meta's Llama e Opens's GPT-4.
Il Codice di pratica è redatto da un gruppo di esperti, tra cui il vincitore di Turing-Prize Yoshua Bengio. Una versione finale sarà adottata dalla Commissione a maggio. Gli esperti hanno cercato di trovare un difficile equilibrio tra garantire la legge che ha anche assicurato che le società di intelligenza artificiale si iscrivono, secondo le persone informate sulla stesura.
Bruxelles ha affrontato un'intensa pressione degli Stati Uniti sull'atto di AI. Il capo degli affari globali di Meta, Joel Kaplan, ha avvertito un pubblico di Bruxelles a febbraio che il codice di pratica avrebbe imposto “requisiti non realizzabili e tecnicamente impossibili”.
Meta ha anche affermato di non poter spedire modelli di grandi dimensioni multimodali e il suo ultimo assistente di intelligenza artificiale nell'UE a causa delle regole sulla privacy del blocco. Anche altre società tecnologiche statunitensi come Google, nonché gruppi europei come Spotify ed Ericsson sono stati critici riguardo al regolamento dell'UE sull'intelligenza artificiale.
Nel frattempo, il vicepresidente statunitense JD Vance ha usato un discorso al vertice dell'IA France a Parigi il mese scorso per colpire “l'eccessiva regolamentazione dell'intelligenza artificiale” e ha avvertito che “l'IA deve rimanere libera da pregiudizi ideologici”.
La nuova commissione, che ha avviato il suo attuale mandato a dicembre, ha chiarito che vuole concentrarsi maggiormente sull'attrazione degli investimenti di intelligenza artificiale e ha annunciato che stava ritirando una direttiva di responsabilità di AI pianificata come parte di una spinta più ampia per la deregolamentazione.
Parlando in un orario finanziario evento Martedì, Virkkunen ha affermato che era importante che il codice di pratica “stia davvero aiutando le industrie, le parti interessate e le PMI, dando davvero linee guida, non stabilendo più ostacoli o obblighi di segnalazione”.
Allo stesso tempo, ha sottolineato che la Commissione rimane impegnata nei suoi principi principali. “Vogliamo assicurarci che l'Europa abbia un ambiente equo, sicuro e democratico anche quando si tratta del mondo digitale”.
