Mer. Nov 12th, 2025

Sblocca gratuitamente il Digest dell’editore

I legislatori dell’UE hanno concordato i termini di una legislazione fondamentale per regolamentare l’intelligenza artificiale, portando avanti l’attuazione del regime più restrittivo al mondo sullo sviluppo della tecnologia.

Thierry Breton, commissario Ue, ha confermato in un post su X che è stato raggiunto un accordo, definendolo un accordo storico. “L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale”, ha scritto. “L’AI Act è molto più di un regolamento: è un trampolino di lancio per le start-up e i ricercatori dell’UE per guidare la corsa globale all’IA.”

L’accordo fa seguito ad anni di discussioni tra gli Stati membri e i membri del Parlamento europeo sui modi in cui l’intelligenza artificiale dovrebbe essere frenata per mettere l’interesse dell’umanità al centro della legislazione. È arrivato dopo una maratona di discussioni iniziata mercoledì di questa settimana.

I dettagli dell’accordo stavano ancora emergendo dopo l’annuncio. Breton ha affermato che i legislatori hanno concordato un approccio a due livelli, con “requisiti di trasparenza per tutti i modelli di intelligenza artificiale di uso generale (come ChatGPT)” e “requisiti più rigorosi per modelli potenti con impatti sistemici” in tutta l’UE.

Breton ha affermato che le norme implementeranno tutele per l’uso della tecnologia IA, evitando allo stesso tempo un “onere eccessivo” per le aziende.

Tra le nuove regole, i legislatori hanno concordato rigorose restrizioni sull’uso della tecnologia di riconoscimento facciale, ad eccezione di eccezioni strettamente definite a livello di applicazione della legge.

La legislazione include anche il divieto dell’uso dell’intelligenza artificiale per il “punteggio sociale” – utilizzando parametri per stabilire quanto qualcuno sia onesto – e dei sistemi di intelligenza artificiale che “manipolano il comportamento umano per aggirare il loro libero arbitrio”.

È vietato anche l’uso dell’intelligenza artificiale per sfruttare le persone vulnerabili a causa della loro età, disabilità o situazione economica.

Le aziende che non rispettano le regole rischiano multe di 35 milioni di euro o il 7% delle entrate globali.

Alcuni gruppi tecnologici non erano contenti. Cecilia Bonefeld-Dahl, direttrice generale di DigitalEurope, che rappresenta il settore tecnologico del continente, ha dichiarato: “Abbiamo un accordo, ma a quale costo? Abbiamo pienamente sostenuto un approccio basato sul rischio basato sull’uso dell’intelligenza artificiale, non sulla tecnologia in sé, ma il tentativo dell’ultimo minuto di regolamentare i modelli di fondazione ha ribaltato la situazione.

“I nuovi requisiti – oltre ad altre nuove leggi radicali come il Data Act – richiederanno molte risorse per il rispetto da parte delle aziende, risorse che saranno spese per avvocati invece di assumere ingegneri di intelligenza artificiale”.

Gli eurodeputati hanno trascorso anni a discutere sulla loro posizione prima che iniziassero i negoziati con gli Stati membri e la Commissione europea, l’organo esecutivo dell’UE. Tutti e tre – i ministeri nazionali, i parlamentari e la commissione – hanno concordato venerdì sera un testo finale, consentendo alla legislazione di diventare legge.

Le aziende europee hanno espresso la preoccupazione che norme eccessivamente restrittive sulla tecnologia, che si sta rapidamente evolvendo e ha guadagnato terreno dopo la divulgazione del ChatGPT di OpenAI, ostacoleranno l’innovazione. A giugno, decine di alcune delle più grandi aziende europee, come la francese Airbus e la tedesca Siemens, hanno affermato che le regole così come sono costituite erano troppo rigide per favorire l’innovazione e aiutare le industrie locali.

Il mese scorso, il Regno Unito ha ospitato un vertice sulla sicurezza dell’intelligenza artificiale, che ha portato ad ampi impegni da parte di 28 nazioni a lavorare insieme per affrontare i rischi esistenziali derivanti dall’intelligenza artificiale avanzata. Quell’evento ha attirato figure di spicco della tecnologia come Sam Altman di OpenAI, che in precedenza era stato critico nei confronti dei piani dell’UE per regolamentare la tecnologia.