Dom. Dic 14th, 2025
EU technology chief Henna Virkkunen

Sblocca gratuitamente il digest dell'editore

L'UE ha svelato il suo codice di pratica per l'intelligenza artificiale per scopi generici, portando avanti con il suo regolamento storico nonostante le feroci pressioni da parte del governo degli Stati Uniti e dei grandi gruppi tecnologici.

La versione finale del codice, che aiuta a spiegare le regole che dovrebbero entrare in vigore il prossimo mese per potenti modelli di AI come GPT-4 di Openi e Gemini di Google, include protezioni del copyright per i creatori e potenziali valutazioni di rischio indipendenti per i sistemi più avanzati.

La decisione dell'UE di avanzare con le sue regole arriva tra un'intensa pressione da parte dei gruppi tecnologici statunitensi e delle società europee per la sua legge AI, considerata il regime più severo del mondo che regola lo sviluppo della tecnologia in rapido sviluppo.

Questo mese gli amministratori delegati di grandi aziende europee tra cui Airbus, BNP Paribas e Mistral hanno esortato Bruxelles a introdurre una pausa di due anni, avvertendo che regolamenti poco chiari e sovrapposti stavano minacciando la competitività del blocco nella razza globale dell'IA.

Bruxelles è stato anche messo a fuoco dal Parlamento europeo e una vasta gamma di gruppi di privacy e società civile per spostarsi per annaffiare le regole delle precedenti versioni di bozza, a seguito di pressioni da parte di Washington e grandi gruppi tecnologici. L'UE aveva già ritardato la pubblicazione del codice, che era previsto a maggio.

L'henné Virkkunen, il capo della tecnologia dell'UE, ha affermato che il codice è stato importante “nel rendere disponibili i modelli di intelligenza artificiale più avanzati in Europa non solo innovativi, ma anche sicuri e trasparenti”.

I gruppi tecnologici dovranno ora decidere se firmare il codice e deve ancora essere formalmente approvato dalla Commissione europea e dagli Stati membri.

La Computer & Communications Industry Association, i cui membri includono molte grandi aziende tecnologiche, ha affermato che “il codice impone ancora un onere sproporzionato per i fornitori di intelligenza artificiale”.

“Senza miglioramenti significativi, i firmatari rimangono in svantaggio rispetto ai non firmatori, minando così l'agenda della competitività e della semplificazione della Commissione”, ha affermato.

Come parte del codice, le aziende dovranno impegnarsi a mettere in atto misure tecniche che impediscono ai loro modelli di generare contenuti che riproducono il contenuto protetto da copyright.

I firmatari si impegnano anche a testare i loro modelli per i rischi stabiliti nella legge AI. Le aziende che forniscono i modelli di intelligenza artificiale più avanzati saranno accettate di monitorare i loro modelli dopo essere stati rilasciati, incluso il consumo di valutatori esterni l'accesso ai loro modelli più capaci. Ma il codice dà loro un po 'di margine di manovra nell'identificazione dei rischi che i loro modelli potrebbero rappresentare.

I funzionari della Commissione europea e in diversi paesi europei hanno discusso privatamente di razionalizzare la linea temporale complicata della legge AI. Mentre la legislazione è entrata in vigore nell'agosto dello scorso anno, molte delle sue disposizioni entreranno in vigore solo negli anni a venire.

Le aziende europee e statunitensi stanno mettendo pressione sul blocco per ritardare le regole imminenti sui sistemi di intelligenza artificiale ad alto rischio, come quelle che includono biometria e riconoscimento facciale, che entreranno in vigore nell'agosto del prossimo anno.