Lun. Giu 24th, 2024
OpenAI ha messo i "prodotti brillanti" al di sopra della sicurezza, afferma uno dei principali ricercatori in partenza

Sblocca gratuitamente il Digest dell'editore

I massimi leader della sicurezza di OpenAI hanno lasciato l'azienda questa settimana dopo che il disaccordo sull'opportunità di dare priorità ai “prodotti brillanti” o alla sicurezza ha raggiunto il “punto di rottura”, afferma uno dei ricercatori in partenza.

Jan Leike, che ha guidato gli sforzi di OpenAI per guidare e controllare strumenti di intelligenza artificiale super potenti, ha dichiarato di aver lasciato l'azienda giovedì dopo essersi scontrato con i suoi capi sulla quantità di tempo e risorse che la startup sta investendo in tali sforzi.

“Negli ultimi anni, la cultura e i processi della sicurezza sono passati in secondo piano rispetto a prodotti brillanti”, ha scritto Leike in un post sul sito di social media X venerdì.

OpenAI è stato il capofila di una corsa feroce per costruire modelli sempre più potenti, competendo con rivali tra cui Google, Meta e Anthropic per ampliare le frontiere della tecnologia AI.

L’azienda ha raccolto miliardi di dollari – inclusi 13 miliardi di dollari da Microsoft – per costruire modelli di intelligenza artificiale in grado di interpretare testo, parlato e immagini e di dimostrare capacità di ragionamento. Il ritmo di questi progressi ha alimentato preoccupazioni su tutto, dalla diffusione della disinformazione al rischio esistenziale nel caso in cui gli strumenti di intelligenza artificiale “diventino canaglia”.

Leike, uno dei ricercatori più apprezzati di OpenAI, se n'è andato insieme a Ilya Sutskever, co-fondatore dell'azienda e co-responsabile del “team di superallineamento” incentrato sulla sicurezza, che ha annunciato le sue dimissioni all'inizio di questa settimana.

Ciò in effetti scioglie il team di OpenAI più esplicitamente concentrato nel garantire che la sua tecnologia sia sviluppata in modo sicuro. Ha anche messo in luce una crescente tensione nel cuore dell’azienda tra il capitalizzare un vantaggio iniziale nel campo dell’intelligenza artificiale e il rispetto della sua missione principale di garantire che l’intelligenza artificiale super potente “va a beneficio di tutta l’umanità”.

“Abbiamo urgentemente bisogno di capire come guidare e controllare i sistemi di intelligenza artificiale in modo molto più intelligente di noi”, ha scritto Leike. “Mi sono iscritto perché pensavo che OpenAI sarebbe stato il posto migliore al mondo per fare questa ricerca. Tuttavia, sono stato in disaccordo con la leadership di OpenAI riguardo alle priorità fondamentali dell'azienda per un bel po' di tempo, fino a quando non abbiamo finalmente raggiunto un punto di rottura.”

Sam Altman, amministratore delegato di OpenAI, ha scritto su X che è stato “molto triste nel vedere [Leike] Partire. Ha ragione, abbiamo ancora molto da fare; ci impegniamo a farlo”.

Le preoccupazioni per la sicurezza sono state anche un fattore determinante nel dramma del consiglio direttivo di OpenAI di novembre, durante il quale Altman è stato estromesso dai direttori – incluso Sutskever – solo per tornare quattro giorni dopo. Prima di essere licenziato, Altman si era scontrato con l'allora membro del consiglio Helen Toner, che paragonava l'approccio di OpenAI alla sicurezza a quello della rivale Anthropic in un modo che Altman riteneva sfavorevole alla sua azienda.

OpenAI ha lanciato il suo team di superallineamento l’anno scorso, affermando che è stato progettato per affrontare le preoccupazioni che le macchine superintelligenti “potrebbero portare alla perdita di potere dell’umanità o addirittura all’estinzione umana”. All’epoca, la società suggerì che l’intelligenza artificiale avrebbe potuto superare in astuzia gli esseri umani entro un decennio. Nei mesi successivi, la start-up ha realizzato una serie di importanti progressi.

L'azienda si è impegnata a destinare il 20% delle proprie risorse informatiche a supportare il lavoro del team, garantendo che l'intelligenza artificiale si allinei agli interessi umani anche se diventa esponenzialmente più potente.

Ma Leike ha affermato che non è stata prestata sufficiente attenzione alla sicurezza e all’impatto sociale dei modelli più potenti: “Questi problemi sono piuttosto difficili da risolvere, e sono preoccupato che non siamo sulla traiettoria per arrivarci”.

Il team di superallineamento ha faticato ad accedere alle risorse informatiche che venivano risucchiate nello sviluppo di nuovi modelli per i consumatori come GPT-4o, l'ultimo modello di OpenAI rilasciato lunedì, ha detto Leike.

“Negli ultimi mesi la mia squadra ha navigato controvento. A volte lottavamo per il calcolo e diventava sempre più difficile portare a termine questa ricerca cruciale”, ha scritto.