Gli Stati Uniti hanno affermato che stanno creando un proprio istituto per vigilare sull’intelligenza artificiale, nel giorno in cui il primo ministro britannico Rishi Sunak ha ospitato un vertice per contribuire a definire regole globali e controllo sull’intelligenza artificiale.
L’annuncio di mercoledì, da parte di Gina Raimondo, segretaria al commercio degli Stati Uniti, è arrivato nonostante i piani del Regno Unito di istituire un istituto internazionale per la sicurezza dell’intelligenza artificiale – una mossa che ha detto di “accogliere con favore e applaudire”.
Raimondo ha affermato che l’istituto statunitense “svilupperà gli standard migliori della categoria. . . per la sicurezza, la protezione e i test” e “valutare i rischi noti e i rischi emergenti dell’IA alla frontiera”.
Il vertice di due giorni a Bletchley Park in Inghilterra, a cui hanno partecipato leader tecnologici tra cui Elon Musk e Sam Altman di OpenAI, fa parte di un tentativo del Regno Unito di contribuire a definire regole e controlli globali per l’intelligenza artificiale.
Mentre i funzionari britannici minimizzano qualsiasi divergenza con Washington, un amministratore delegato della tecnologia ha affermato che la posizione degli Stati Uniti significa che il paese, sede di alcuni dei più grandi titani della tecnologia, non “voleva perdere il nostro controllo commerciale a favore del Regno Unito”.
Il vertice – presentato come un evento che definisce l’eredità di Sunak, un anno dopo il suo insediamento – si concentra su rischi estremi come la possibile portata dell’intelligenza artificiale per sviluppare armi biologiche e chimiche.
Ma la vicepresidente americana Kamala Harris ha dichiarato in un evento separato a miglia di distanza a Londra che i modelli di intelligenza artificiale già in funzione oggi rappresentano anche pericoli “esistenziali”.
“Quando un anziano viene escluso dal suo piano sanitario a causa di un algoritmo difettoso, non è esistenziale per lui?” lei chiese.
Harris incontrò Sunak a Downing Street più tardi quello stesso giorno.
Questa settimana il presidente degli Stati Uniti Joe Biden aveva già emesso un ordine esecutivo che definisce la sua amministrazione “la più forte serie di azioni che qualsiasi governo al mondo abbia mai intrapreso sulla sicurezza, la protezione e la fiducia dell’IA”.
La misura costringerà alcuni gruppi a condividere informazioni su come garantiscono la sicurezza dei loro strumenti di intelligenza artificiale, mobilitando al contempo le agenzie di tutta l’amministrazione statunitense.
I 28 paesi presenti al vertice – tra cui Stati Uniti, Regno Unito e Cina – hanno concordato quello che hanno definito essere il primo impegno globale di questo tipo. In un comunicato si sono impegnati a lavorare insieme per garantire che l’intelligenza artificiale venga utilizzata in modo “incentrato sull’uomo, affidabile e responsabile”.

Tuttavia, l’evento ha anche messo in luce le divergenze sull’uso di modelli di intelligenza artificiale open source tra grandi aziende e start-up, nonché tra governi di tutto il mondo.
“Da una parte, [smaller, open-source models] consentire l’innovazione aperta, la sperimentazione accademica e le piccole start-up per andare avanti, tutte cose che dovremmo incoraggiare e abbracciare”, ha affermato Mustafa Suleyman, amministratore delegato di Inflection, una start-up basata sull’intelligenza artificiale e co-fondatore di Google DeepMind. “E allo stesso tempo, danno anche a un armeggiatore da garage la capacità di avere un impatto uno-a-molti nel mondo, potenzialmente, diverso da qualsiasi cosa abbiamo mai visto.”