Gio. Giu 13th, 2024
OpenAI inizia ad addestrare il prossimo modello di intelligenza artificiale mentre combatte i problemi di sicurezza

Sblocca gratuitamente il Digest dell'editore

OpenAI ha affermato di aver iniziato ad addestrare il suo software di intelligenza artificiale di prossima generazione, anche se la start-up ha fatto marcia indietro rispetto alle precedenti affermazioni di voler costruire sistemi “superintelligenti” che siano più intelligenti degli umani.

La società con sede a San Francisco ha dichiarato martedì di aver iniziato a produrre un nuovo sistema di intelligenza artificiale “per portarci al livello successivo di capacità” e che il suo sviluppo sarà supervisionato da un nuovo comitato per la sicurezza.

Ma mentre OpenAI sta andando avanti con lo sviluppo dell’intelligenza artificiale, un dirigente senior di OpenAI sembra fare marcia indietro sui precedenti commenti del suo amministratore delegato Sam Altman secondo cui l’obiettivo finale era quello di costruire una “superintelligenza” molto più avanzata di quella umana.

Anna Makanju, vicepresidente per gli affari globali di OpenAI, ha dichiarato in un'intervista al MagicTech che la sua “missione” era quella di costruire un'intelligenza artificiale generale capace di “compiti cognitivi che sono ciò che un essere umano potrebbe fare oggi”.

“La nostra missione è costruire l’AGI; Non direi che la nostra missione sia costruire una superintelligenza”, ha detto Makanju. “La superintelligenza è una tecnologia che sarà molto più intelligente degli esseri umani sulla Terra”.

Altman ha dichiarato al FT a novembre di aver trascorso metà del suo tempo a ricercare “come costruire una superintelligenza”.

Allo stesso tempo, respingendo la concorrenza di Gemini di Google e della start-up xAI di Elon Musk, OpenAI sta tentando di rassicurare i politici sul fatto che sta dando priorità allo sviluppo responsabile dell'IA dopo che diversi ricercatori senior sulla sicurezza si sono dimessi questo mese.

Il suo nuovo comitato sarà guidato da Altman e dai direttori del consiglio Bret Taylor, Adam D'Angelo e Nicole Seligman, e riferirà ai restanti tre membri del consiglio.

La società non ha detto cosa potrebbe fare il seguito di GPT-4, che alimenta la sua app ChatGPT e ha ricevuto un importante aggiornamento due settimane fa, o quando verrà lanciato.

All’inizio di questo mese, OpenAI ha sciolto il suo cosiddetto team di superallineamento – incaricato di concentrarsi sulla sicurezza dei sistemi potenzialmente superintelligenti – dopo che Ilya Sutskever, leader del team e co-fondatore dell’azienda, si è dimesso.

La partenza di Sutskever è avvenuta mesi dopo che a novembre aveva condotto un colpo di stato contro Altman che alla fine si è rivelato infruttuoso.

La chiusura del team di superallineamento ha portato diversi dipendenti a lasciare l’azienda, tra cui Jan Leike, un altro ricercatore senior sulla sicurezza dell’intelligenza artificiale.

Makanju ha sottolineato che il lavoro sulle “possibilità a lungo termine” dell’intelligenza artificiale è ancora in corso “anche se sono teoriche”.

“L’AGI non esiste ancora”, ha aggiunto Makanju, affermando che tale tecnologia non sarà rilasciata finché non sarà sicura.

La formazione è il passaggio principale nel modo in cui un modello di intelligenza artificiale apprende, attingendo a un enorme volume di dati e informazioni che gli vengono forniti. Dopo aver assimilato i dati e aver migliorato le sue prestazioni, il modello viene convalidato e testato prima di essere implementato in prodotti o applicazioni.

Questo processo lungo e altamente tecnico significa che il nuovo modello di OpenAI potrebbe non diventare un prodotto tangibile per molti mesi.