Rimani informato con aggiornamenti gratuiti
Le principali società di intelligenza artificiale hanno sottoscritto una nuova serie di impegni volontari sulla sicurezza dell’intelligenza artificiale, hanno annunciato i governi del Regno Unito e della Corea del Sud.
Le aziende, che includono i giganti della tecnologia Amazon, Google, Meta e Microsoft, nonché OpenAI guidata da Sam Altman, xAI di Elon Musk e lo sviluppatore cinese Zhipu AI, pubblicheranno framework che descrivono come misureranno i rischi dei loro modelli di intelligenza artificiale di “frontiera”.
I gruppi si sono impegnati a “non sviluppare o implementare affatto un modello” se non fosse stato possibile mitigare i rischi gravi, hanno affermato i due governi prima dell’apertura di un vertice globale sull’intelligenza artificiale a Seul martedì.
L’annuncio si basa sulla cosiddetta Dichiarazione di Bletchley fatta al vertice inaugurale sulla sicurezza dell’intelligenza artificiale ospitato dal primo ministro britannico Rishi Sunak a novembre.
“Questi impegni garantiscono che le principali aziende mondiali di intelligenza artificiale forniranno trasparenza e responsabilità sui loro piani per sviluppare un'intelligenza artificiale sicura”, ha affermato Sunak in una nota. “Costituisce un precedente per gli standard globali sulla sicurezza dell’intelligenza artificiale che sbloccheranno i vantaggi di questa tecnologia trasformativa”.
Secondo un comunicato che delinea l’accordo, le società di intelligenza artificiale “valuteranno i rischi posti dai loro modelli o sistemi di frontiera. . . anche prima dell’implementazione di tale modello o sistema e, se del caso, prima e durante la formazione”.
Le società stabiliranno inoltre le “soglie alle quali i gravi rischi posti da un modello o sistema, se non adeguatamente mitigati, sarebbero considerati intollerabili” e come verranno implementate tali mitigazioni.
“Il campo della sicurezza dell'intelligenza artificiale è in rapida evoluzione e siamo particolarmente lieti di sostenere l'enfasi posta dagli impegni sul perfezionamento degli approcci insieme alla scienza”, ha affermato Anna Makanju, vicepresidente degli affari globali di OpenAI.
“Rimaniamo impegnati a collaborare con altri laboratori di ricerca, aziende e governi per garantire che l’intelligenza artificiale sia sicura e porti benefici a tutta l’umanità”.
L'annuncio di martedì fa eco agli “impegni volontari” assunti alla Casa Bianca nel luglio dello scorso anno da Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft e OpenAI “per contribuire a procedere verso uno sviluppo sicuro, protetto e trasparente della tecnologia AI”.
Non è chiaro, tuttavia, come le aziende potrebbero essere tenute a rispondere se non rispettano i propri impegni.
Il comunicato di martedì afferma che le 16 società “garantiranno trasparenza pubblica” sull'attuazione dei loro impegni, “tranne nella misura in cui ciò aumenterebbe il rischio o divulgherebbe informazioni commerciali sensibili in misura sproporzionata rispetto al beneficio sociale”.
Parlando a Seul prima di un incontro virtuale dei leader martedì sera, la segretaria britannica per la scienza Michelle Donelan ha dichiarato al MagicTech che gli accordi volontari stipulati a Bletchley hanno funzionato.
“Pertanto, crediamo che questi accordi continueranno a dare dividendi”, ha detto Donelan.
“Ma non si tratta solo di cosa possono fare di più le aziende, si tratta anche di cosa possono fare di più i paesi”, ha aggiunto. Donelan ha confermato che il governo cinese sarà rappresentato alle riunioni che si terranno mercoledì nel secondo giorno del vertice.
Dan Hendrycks, consigliere per la sicurezza di xAI, ha affermato che gli impegni volontari aiuterebbero a “gettare le basi per una regolamentazione nazionale concreta”.
Ma Donelan ha ribadito la posizione del Regno Unito secondo cui è troppo presto per prendere in considerazione una legislazione per garantire la sicurezza dell’IA.
“Dobbiamo gestire meglio i rischi”, ha affermato, sottolineando che il governo del Regno Unito offrirà fino a 8,5 milioni di sterline in sovvenzioni per studiare i rischi legati all’intelligenza artificiale come i deepfake e gli attacchi informatici.
Ha aggiunto che se il governo britannico avesse avviato una legislazione sulla questione l’anno scorso, “quando uscirà, probabilmente sarebbe obsoleta”.