Mer. Dic 4th, 2024
María Hergueta illustration of a robot sitting as a statue holding its head with his hand, thinking.

Rimani informato con aggiornamenti gratuiti

Lo scrittore è professore di informatica all'Università di Montreal e fondatore del Quebec Artificial Intelligence Institute Mila

La mancanza di capacità di deliberazione interna – in altre parole di pensiero – è stata a lungo considerata una delle principali debolezze dell’intelligenza artificiale. La portata di un recente progresso in questo da parte del creatore di ChatGPT OpenAI è a punto di dibattito all’interno della comunità scientifica. Ma ciò porta me e molti dei miei colleghi esperti a credere che esista una possibilità che siamo sul punto di colmare il divario verso il ragionamento a livello umano.

I ricercatori sostengono da tempo che le reti neurali tradizionali – l’approccio principale all’intelligenza artificiale – si allineano maggiormente con la cognizione del “sistema 1”. Ciò corrisponde a risposte dirette o intuitive alle domande (ad esempio quando si riconosce automaticamente un volto). L’intelligenza umana, d’altro canto, si basa anche sulla cognizione del “sistema 2”. Ciò implica una deliberazione interna e consente potenti forme di ragionamento (come quando si risolve un problema di matematica o si pianifica qualcosa in dettaglio). Ci consente di combinare elementi di conoscenza in modi coerenti ma nuovi.

Il progresso di OpenAI, che non è stato ancora completamente rilasciato al pubblico, si basa su una forma di intelligenza artificiale con deliberazione interna effettuata con il loro modello linguistico o1 large (LML).

Un ragionamento migliore consentirebbe di affrontare due principali punti deboli dell’attuale intelligenza artificiale: la scarsa coerenza delle risposte e la capacità di pianificare e raggiungere obiettivi a lungo termine. Il primo è importante negli usi scientifici e il secondo è essenziale per creare agenti autonomi. Entrambi potrebbero consentire importanti applicazioni.

I principi alla base del ragionamento sono stati al centro della ricerca sull’intelligenza artificiale nel 20° secolo. Un primo esempio di successo è stato AlphaGo di DeepMind, il primo sistema informatico a battere campioni umani nell'antico gioco asiatico del Go nel 2015, e più recentemente AlphaProof, che si occupa di argomenti matematici. Qui le reti neurali imparano a prevedere l’utilità di un’azione. Tali “intuizioni” vengono poi utilizzate per pianificare ricercando in modo efficiente le possibili sequenze di azioni.

Tuttavia, AlphaGo e AlphaProof implicano conoscenze molto specializzate (rispettivamente del gioco del Go e di specifici domini matematici). Ciò che rimane poco chiaro è come combinare l’ampiezza della conoscenza dei moderni LLM con potenti capacità di ragionamento e pianificazione.

Ci sono stati alcuni progressi. Già, gli LLM forniscono risposte migliori a domande complesse quando viene loro chiesto di produrre una catena di pensiero che porti alla loro risposta.

La nuova serie “o” di OpenAI spinge ulteriormente questa idea e richiede molte più risorse di calcolo, e quindi energia, per farlo. Con una catena di pensiero molto lunga è allenato a “pensare” meglio.

Vediamo quindi apparire una nuova forma di ridimensionamento computazionale. Non solo più dati di addestramento e modelli più grandi, ma più tempo dedicato a “pensare” alle risposte. Ciò porta a capacità sostanzialmente migliorate in compiti pesanti di ragionamento come la matematica, l’informatica e la scienza in generale.

Ad esempio, mentre il precedente modello GPT-4o di OpenAI ha ottenuto solo circa il 13% alle Olimpiadi di matematica degli Stati Uniti del 2024 (nel test AIME), o1 ha raggiunto un punteggio dell'83%, posizionandolo tra i primi 500 studenti del paese.

In caso di successo, ci sono grossi rischi da considerare. Non sappiamo ancora come allineare e controllare l’intelligenza artificiale in modo affidabile. Ad esempio, la valutazione di o1 ha mostrato una maggiore capacità di ingannare gli esseri umani, una conseguenza naturale del miglioramento delle capacità di raggiungimento degli obiettivi. È inoltre preoccupante il fatto che la capacità di o1 di contribuire alla creazione di armi biologiche abbia superato la soglia di rischio di OpenAI da bassa a media. Questo è il livello più alto accettabile secondo l'azienda (che potrebbe avere interesse a mantenere basse le preoccupazioni).

Si ritiene che lo sblocco del ragionamento e dell’azione siano le pietre miliari principali sulla strada verso l’intelligenza artificiale a livello umano, nota anche come intelligenza artificiale generale. Esistono quindi potenti incentivi economici per le grandi aziende che corrono verso questo obiettivo per tagliare gli angoli sulla sicurezza.

o1 sarà probabilmente solo un primo passo. Sebbene riesca bene in molti compiti di ragionamento e matematica, sembra che la pianificazione a lungo termine non sia stata ancora raggiunta. o1 fatica su compiti di pianificazione più complessi, suggerendo che c’è ancora del lavoro da fare per raggiungere il tipo di agenzia autonoma ricercata dalle aziende di intelligenza artificiale.

Ma con il miglioramento delle capacità scientifiche e di programmazione, è prevedibile che questi nuovi modelli possano accelerare la ricerca sull’intelligenza artificiale stessa. Ciò potrebbe portarlo all’intelligenza di livello umano più velocemente del previsto. I progressi nelle capacità di ragionamento rendono ancora più urgente regolamentare i modelli di intelligenza artificiale al fine di proteggere il pubblico.