Sab. Feb 24th, 2024

Rimani informato con aggiornamenti gratuiti

IL Apri la saga dell’IA ha reso abbondantemente chiaro che le istituzioni democratiche dovrebbero governare potenti sistemi di intelligenza artificiale. Ma contrariamente ad alcune affermazioni superficiali che suggeriscono che si possa esserlo pro O anti regolamento, il diavolo è nei dettagli. Ci sono battaglie sulla direzione che dovrebbe prendere la regolamentazione dell’IA e su quali compromessi siano accettabili. Vediamo il discussione politica sulle scelte su cosa includere o escludere dall’EU AI Act si stanno svolgendo proprio mentre parliamo.

Questa settimana, i negoziatori dell’UE definiranno i dettagli in quello che dovrebbe essere l’ultimo round di negoziati sulla legge fondamentale che disciplina l’IA. Eppure la versione dell’UE è la prima tra le democrazie ad adottare una legislazione completa. Ma nonostante l’iniziale allineamento politico attorno alla legge, l’intesa sembra sgretolarsi all’ultimo minuto.

Originariamente, la legge era stata concepita per garantire una mitigazione proporzionata del rischio su una serie di funzioni di intelligenza artificiale. Ad esempio, un’azienda che offre un servizio di intelligenza artificiale per selezionare candidati per posti di lavoro o università dovrebbe adottare misure per impedire che i propri sistemi danneggino indebitamente l’accesso dei singoli individui. I sistemi di riconoscimento facciale sarebbero soggetti a controlli più severi a causa della tutela della privacy, e alcuni dei più potenti sistemi di intelligenza artificiale come il punteggio del credito sociale sarebbero del tutto vietati.

Ma quando è stato rilasciato ChatGPT e si è sviluppata la comprensione pubblica dell’intelligenza artificiale per scopi generali, sono cresciute le richieste per regolamentare anche questo attraverso l’AI Act. I modelli di base sono la tecnologia che può svolgere attività autonome e fungere da base per molte altre applicazioni di intelligenza artificiale. Possono essere utilizzati per generare testo, immagini e suoni o essere addestrati per eseguire qualsiasi cosa, dal riconoscimento facciale alla moderazione dei contenuti. Considerato questo potenziale illimitato, lasciare i modelli di fondazione fuori dalla legge sarebbe un’occasione persa per prevenire danni. Anche l’ordine esecutivo della Casa Bianca sull’intelligenza artificiale e il Codice di condotta del G7 affrontano i modelli fondativi.

Tuttavia, Francia, Italia e Germania stanno respingendo questa idea: temono che se i modelli di fondazione saranno regolamentati, le loro nascenti società nazionali di intelligenza artificiale non saranno mai in grado di raggiungere i giganti statunitensi. Dato il loro impatto di vasta portata, è comprensibile che paesi come Germania e Francia vogliano sviluppare capacità di intelligenza artificiale sovrane, ma sbagliano ancora a opporsi a una loro regolamentazione.

Immagina come un difetto non rilevato in un modello di base possa propagarsi a migliaia di utenti a valle che stanno creando app con il modello. È giusto chiedere conto a un’azienda dell’utilizzo del prodotto di un’altra? Nessuna sorpresa Preoccupate le associazioni delle PMI sui costi di conformità per gli attori più piccoli nella catena del valore.

È più logico che i più potenti siano i più responsabili. Se aziende come Open AI, Anthropic e Google DeepMind vengono lasciate a se stesse, la concentrazione del mercato, l’erosione della privacy e le preoccupazioni sulla sicurezza non verranno esaminate in modo indipendente. Perché non affrontare il problema alla radice e costruire un ecosistema di fiducia? Non solo è nel complesso molto più economico per le aziende più potenti essere soggette a supervisione, ma è anche quasi impossibile districare retrospettivamente l’intreccio di dati, modelli e aggiustamenti algoritmici.

Il lato positivo è che anche le aziende dovrebbero beneficiare di un controllo verificato in un settore che continua ad essere afflitto da problemi di sicurezza, discriminazione, falsità e allucinazioni (un bel modo per dire che l’intelligenza artificiale mente).

I negoziatori dell’UE coinvolti nell’AI Act suggeriscono un approccio graduale per limitare i modelli di fondazione, in modo che il livello di regolamentazione sia graduale, in linea con l’impatto dei modelli. Ciò significa che solo un piccolo numero di aziende rientrerà nel suo ambito, consentendo ad altre di crescere prima di essere colpite dalla regolamentazione. E poiché i modelli di base sono ancora in evoluzione, le nuove regole dovrebbero lasciare spazio ad aggiustamenti man mano che la tecnologia cambia.

Non sorprende che le fasi finali dei negoziati siano le più complicate: è sempre così. Coloro che temono che le tensioni possano significare la fine della legge sull’AI sembrano ignari di come si svolgono le battaglie legislative. Per tutte le parti interessate dell’UE, la posta in gioco è molto alta e il mondo sta guardando per vedere quale legge l’UE finirà per votare. Speriamo che i leader politici riescano a concordare una serie di regole a prova di futuro. Da un grande potere tecnologico dovrebbero derivare grandi responsabilità, non importa se gli ingegneri francesi, americani o tedeschi abbiano costruito il sistema.