Mar. Mag 21st, 2024

Al vertice di Rishi Sunak sull’intelligenza artificiale di questa settimana, un delegato ha affermato che il primo ministro britannico ha messo a segno un “colpo di stato diplomatico” convincendo i funzionari statunitensi e cinesi a schierarsi insieme sulla necessità di controllare l’intelligenza artificiale.

Nel mezzo delle crescenti tensioni commerciali e tecnologiche tra Washington e Pechino, il delegato cinese Dr Wu Zhaohui ha sorpreso alcuni all’evento di due giorni a Bletchley Park, in Inghilterra, concordando sul fatto che erano uniti dai valori comuni di “democrazia” e “libertà” nel paese. lotta contro gli usi dannosi dell’IA.

Gli ampi impegni da parte di 28 nazioni a lavorare insieme per affrontare i rischi esistenziali derivanti dall’intelligenza artificiale avanzata – oltre ad attrarre figure di spicco della tecnologia da Tesla e X capo Elon Musk a Sam Altman di OpenAI – hanno portato molti a dire che il vertice sull’intelligenza artificiale di Sunak è stato un successo.

“È un ottimo esempio del potere di convocazione del Regno Unito, perché hai riunito tutte queste persone sotto lo stesso tetto”, ha affermato Jean Carberry, assistente segretario per la politica digitale del Dipartimento irlandese per le imprese, il commercio e l’occupazione. “È stato piuttosto catalitico.”

Ma il vertice di Bletchley Park ha anche messo in luce le tensioni di fondo sullo sviluppo dell’intelligenza artificiale. Durante il vertice, la vicepresidente americana Kamala Harris ha tenuto una conferenza stampa a Londra, nella quale ha espresso l’intenzione del suo Paese di scrivere le proprie regole del gioco.

“Cerchiamo di essere chiari: quando si tratta di intelligenza artificiale, l’America è un leader globale. Sono le aziende americane a guidare il mondo nell’innovazione dell’intelligenza artificiale. È l’America che può catalizzare l’azione globale e costruire un consenso globale in un modo che nessun altro paese può fare”, ha affermato Harris.

All’inizio della settimana, il presidente Joe Biden ha emesso un ordine esecutivo che obbliga le aziende di intelligenza artificiale i cui modelli potrebbero minacciare la sicurezza nazionale degli Stati Uniti a condividere il modo in cui garantiscono la sicurezza dei loro strumenti.

A Bletchley, gli Stati Uniti hanno anche annunciato un piano per creare un proprio Istituto per la sicurezza dell’intelligenza artificiale composto da esperti per monitorare i rischi, che lavorerebbe a stretto contatto con un organismo simile creato dal Regno Unito che ha l’ambizione di un ruolo globale maggiore nella ricerca sui rischi legati all’intelligenza artificiale.

Un politico presente ha affermato che l’accaparramento delle terre da parte degli Stati Uniti era “inevitabile”. “L’intelligenza artificiale è la prossima grande novità, e nessuno si tirerà indietro, si farà il morto e dirà che sarai tu a prendere il controllo”, hanno detto. “La Cina non permetterà che ciò accada, e certamente non lo faranno gli Stati Uniti”.

La persona ha aggiunto che uno dei motivi per cui i cinesi sono stati così flessibili nello sviluppo di una posizione comune sulla governance globale dell’intelligenza artificiale è che “giocare bene” e agire come “partner responsabile” potrebbe aiutare a favorire le conversazioni sull’allentamento delle barriere commerciali imposte. da parte degli Stati Uniti in seguito.

Un’altra fonte di dibattito riguardava se i modelli di intelligenza artificiale sofisticati potessero essere “aperti” o “chiusi”. Alcune aziende come Meta e start-up come Hugging Face, Mistral e Stability AI stanno costruendo sistemi di intelligenza artificiale open source, il che significa che i dettagli tecnici del nuovo modello saranno rilasciati pubblicamente.

Ciò contrasta con l’approccio di concorrenti come OpenAI e Google, sostenuti da Microsoft, che creano una cosiddetta scatola nera in cui i dati e il codice utilizzati per costruire modelli di intelligenza artificiale non sono disponibili a terzi.

I sostenitori dei modelli chiusi affermano che potrebbero rispettare meglio le rigide normative, controllare chi ha accesso ad essi ed evitare che cadano nelle mani di malintenzionati. Ma altri sostengono che i modelli aperti contribuiranno a garantire che i paesi con meno risorse e i gruppi accademici possano sviluppare i propri sistemi di intelligenza artificiale.

“In queste discussioni ci sono obiettivi contrastanti. E vedo i paesi. . . che vogliono assicurarsi di poter restare al passo con lo stato dell’arte. . . dire cose come “dovremmo condividere tutto””, ha affermato Yoshua Bengio, direttore scientifico del Montreal Institute for Learning Algorithms e pioniere del deep learning, la tecnologia alla base dei sofisticati modelli di intelligenza artificiale di oggi.

Ma ha aggiunto: “Il modello più forte è l’open source. . . pericoloso dal punto di vista della sicurezza. Una volta che puoi avere accesso ai pesi nel sistema, puoi facilmente trasformarli in qualcosa di dannoso.

Emad Mostaque, fondatore e amministratore delegato della società di intelligenza artificiale per immagini Stability AI, che utilizza tecnologia open source, ha affermato che la Francia è stata particolarmente esplicita nel suo sostegno all’aumento dell’accesso a modelli di intelligenza artificiale sofisticati, in parte a causa della sua start-up nazionale di intelligenza artificiale Mistral, che sta costruendo software open source.

“Ma alla fine quasi tutti i funzionari governativi con cui parlo si rendono conto che i governi devono restare aperti. Nelle industrie regolamentate non possono esserci scatole nere”, ha affermato. “C’è questa questione di sicurezza nazionale: puoi davvero fare affidamento su qualcun altro per realizzare questa tecnologia?”

Musk, che ha creato la sua società X.AI e che in precedenza ha sostenuto una moratoria sullo sviluppo di sistemi di intelligenza artificiale più avanzati, ha detto a Sunak di avere “una leggera propensione verso l’open source” perché tende a restare indietro di sei volte rispetto a quello closed-source. 12 mesi e “almeno puoi vedere cosa sta succedendo”.

“Questa attenzione alla pausa e ai rischi catastrofici dell’intelligenza artificiale si adatta a Musk perché è indietro [on developing AI]”, ha detto una persona che ha partecipato a una sessione del vertice con il miliardario. Hanno aggiunto che quando “alcune delle aziende leader sottolineano risultati catastrofici ci sono rischi di cattura normativa”, dove i legislatori sono influenzati da interessi commerciali al di sopra delle preoccupazioni del pubblico più ampio.

Le nazioni in via di sviluppo, essendo state escluse dai benefici delle precedenti rivoluzioni tecnologiche, hanno cercato di impegnarsi affinché ciò non si ripetesse.

“Molti paesi, soprattutto nel sud del mondo, trovano inaccessibile partecipare all’economia digitale mondiale”, ha affermato Rajeev Chandrasekhar, ministro indiano dell’elettronica e dell’IT. “Quel tempo è finito. I vantaggi della tecnologia dovrebbero essere disponibili a tutti. . . ogni paese del mondo”.

Vidushi Marda, co-fondatore dell’organizzazione no-profit REAL ML, che ha partecipato, ha affermato che “è stato incoraggiante vedere che l’attenzione alla regolamentazione a livello nazionale fosse una priorità chiave emergente”, per evitare di ripetere errori storici.

Le prossime edizioni del summit si terranno tra sei mesi in Corea del Sud, poi tra un anno in Francia. Mentre l’evento di Bletchley si è concentrato sull’allineamento su ciò che deve essere fatto, i partecipanti hanno affermato che i prossimi due si concentreranno sull’azione: regolamentazione concreta e proposte di ricerca su come valutare i modelli di intelligenza artificiale.

Marija Pejčinović Burić, segretaria generale del Consiglio d’Europa, ha dichiarato: “La sfida dell’intelligenza artificiale è così grande e il suo sviluppo è esponenziale, il che significa che non c’è lusso nel metterla da parte e concentrarsi su qualcos’altro”.