Sblocca gratuitamente l'Editor's Digest
Gli ultimi modelli di OpenAI hanno aumentato “significativamente” il rischio che l'intelligenza artificiale venga utilizzata in modo improprio per creare armi biologiche, ha riconosciuto l'azienda.
Il gruppo con sede a San Francisco ha annunciato giovedì i suoi nuovi modelli, noti come o1, decantandone le nuove capacità di ragionamento, risoluzione di difficili problemi matematici e risposta a domande di ricerca scientifica. Questi progressi sono visti come una svolta cruciale nello sforzo di creare un'intelligenza artificiale generale, ovvero macchine con capacità cognitive di livello umano.
La scheda di sistema di OpenAI, uno strumento per spiegare come funziona l'IA, ha affermato che i nuovi modelli presentavano un “rischio medio” per problemi correlati alle armi chimiche, biologiche, radiologiche e nucleari (CBRN), il rischio più elevato che OpenAI abbia mai attribuito ai suoi modelli. L'azienda ha affermato che ciò significava che la tecnologia aveva “significativamente migliorato” la capacità degli esperti di creare armi biologiche.
Secondo gli esperti, i software di intelligenza artificiale dotati di funzionalità più avanzate, come la capacità di eseguire ragionamenti passo dopo passo, presentano un rischio maggiore di uso improprio nelle mani di malintenzionati.
Yoshua Bengio, professore di informatica all'Università di Montreal e uno dei principali scienziati al mondo nel campo dell'intelligenza artificiale, ha affermato che se OpenAI rappresenta ora un “rischio medio” per le armi chimiche e biologiche, “ciò non fa che rafforzare l'importanza e l'urgenza” di una legislazione come un disegno di legge molto dibattuto in California per regolamentare il settore.
La misura, nota come SB 1047, richiederebbe ai produttori dei modelli più costosi di adottare misure per ridurre al minimo il rischio che i loro modelli venissero utilizzati per sviluppare armi biologiche. Mentre i modelli di IA “di frontiera” avanzano verso l'AGI, i “rischi continueranno ad aumentare se mancano le giuste protezioni”, ha affermato Bengio. “Il miglioramento della capacità dell'IA di ragionare e di usare questa abilità per ingannare è particolarmente pericoloso”.
Questi avvertimenti sono arrivati mentre aziende tecnologiche tra cui Google, Meta e Anthropic stanno correndo per costruire e migliorare sistemi di intelligenza artificiale sofisticati, mentre cercano di creare software in grado di agire come “agenti” che assistono gli esseri umani nel completamento dei compiti e nella gestione delle loro vite.
Questi agenti di intelligenza artificiale sono anche visti come potenziali fonti di guadagno per le aziende che devono far fronte agli enormi costi richiesti per addestrare e gestire nuovi modelli.
Mira Murati, responsabile della tecnologia di OpenAI, ha dichiarato al MagicTech che l'azienda è particolarmente “cauta” nel modo in cui sta presentando o1 al pubblico, a causa delle sue funzionalità avanzate, sebbene il prodotto sarà ampiamente accessibile tramite gli abbonati paganti di ChatGPT e ai programmatori tramite un'API.
Ha aggiunto che il modello è stato testato dai cosiddetti red-teamers, esperti in vari ambiti scientifici che hanno cercato di rompere il modello, per spingerne i limiti. Murati ha affermato che i modelli attuali hanno avuto prestazioni molto migliori in termini di metriche di sicurezza complessive rispetto ai precedenti.
OpenAI ha affermato che il modello di anteprima “è sicuro da distribuire sotto [its own policies and] classificato come “rischio medio” su [its] scala prudente, perché non facilita l'aumento dei rischi oltre a quanto è già possibile con le risorse esistenti”.