Mar. Giu 18th, 2024
Il capo di Meta AI afferma che i grandi modelli linguistici non raggiungeranno l’intelligenza umana

Il capo dell’intelligenza artificiale di Meta ha affermato che i grandi modelli linguistici che alimentano i prodotti di intelligenza artificiale generativa come ChatGPT non raggiungeranno mai la capacità di ragionare e pianificare come gli esseri umani, poiché si è concentrato invece su un approccio alternativo radicale per creare “superintelligenza” nelle macchine.

Yann LeCun, capo scienziato dell’intelligenza artificiale presso il colosso dei social media che possiede Facebook e Instagram, ha affermato che gli LLM hanno “una comprensione molto limitata della logica. . . non comprendono il mondo fisico, non hanno memoria persistente, non riescono a ragionare in alcuna definizione ragionevole del termine e non sanno pianificare. . . gerarchicamente”.

In un'intervista con il MagicTech, si è espresso contro il fatto di fare affidamento sul progresso degli LLM nel tentativo di creare un'intelligenza a livello umano, poiché questi modelli possono rispondere con precisione alle richieste solo se sono stati forniti i giusti dati di formazione e sono, quindi, “intrinsecamente pericolosi”. ”.

Sta invece lavorando per sviluppare una generazione completamente nuova di sistemi di intelligenza artificiale che spera possa alimentare macchine con intelligenza di livello umano, anche se ha affermato che questa visione potrebbe richiedere 10 anni per essere raggiunta.

Meta ha investito miliardi di dollari nello sviluppo dei propri LLM mentre l’intelligenza artificiale generativa è esplosa, con l’obiettivo di raggiungere i gruppi tecnologici rivali, tra cui OpenAI sostenuto da Microsoft e Google di Alphabet.

LeCun gestisce un team di circa 500 dipendenti presso il laboratorio Fundamental AI Research (Fair) di Meta. Stanno lavorando per creare un’intelligenza artificiale in grado di sviluppare il buon senso e apprendere come funziona il mondo in modo simile agli esseri umani, in un approccio noto come “modellazione del mondo”.

La visione sperimentale del capo di Meta AI è una scommessa potenzialmente rischiosa e costosa per il gruppo di social media in un momento in cui gli investitori non vedono l'ora di vedere rapidi ritorni sugli investimenti nell'intelligenza artificiale.

Il mese scorso, Meta ha perso quasi 200 miliardi di dollari di valore quando l’amministratore delegato Mark Zuckerberg ha promesso di aumentare la spesa e trasformare il gruppo di social media in “la principale società di intelligenza artificiale nel mondo”, spaventando gli investitori di Wall Street preoccupati per l’aumento dei costi con scarso potenziale di entrate immediate.

“Siamo al punto in cui pensiamo di essere forse all’apice dei sistemi di intelligenza artificiale di prossima generazione”, ha affermato LeCun.

I commenti di LeCun arrivano mentre Meta e i suoi rivali avanzano con LLM sempre più avanzati. Figure come il capo di OpenAI Sam Altman ritengono di fornire un passo fondamentale verso la creazione di intelligenza generale artificiale (AGI), il punto in cui le macchine avranno capacità cognitive maggiori rispetto agli esseri umani.

OpenAI la scorsa settimana ha rilasciato il suo nuovo modello GPT-4o più veloce e Google ha presentato un nuovo agente di intelligenza artificiale “multimodale” in grado di rispondere a query in tempo reale su video, audio e testo chiamato Project Astra, alimentato da una versione aggiornata del suo modello Gemini.

Meta ha anche lanciato il suo nuovo modello Llama 3 il mese scorso. Il responsabile degli affari globali dell'azienda, Sir Nick Clegg, ha affermato che il suo ultimo LLM ha “capacità notevolmente migliorate come il ragionamento”, ovvero la capacità di applicare la logica alle query. Ad esempio, il sistema supporrebbe che una persona che soffre di mal di testa, mal di gola e naso che cola abbia il raffreddore, ma potrebbe anche riconoscere che le allergie potrebbero essere la causa dei sintomi.

Tuttavia, LeCun ha affermato che questa evoluzione degli LLM è stata superficiale e limitata, con i modelli che apprendono solo quando gli ingegneri umani intervengono per addestrarli su tali informazioni, piuttosto che l’intelligenza artificiale che arriva a una conclusione in modo organico come le persone.

“Certamente alla maggior parte delle persone sembra un ragionamento, ma soprattutto si tratta di sfruttare la conoscenza accumulata da molti dati di addestramento”, ha detto LeCun, ma ha aggiunto: “[LLMs] sono molto utili nonostante i loro limiti.”

Google DeepMind ha anche dedicato diversi anni alla ricerca di metodi alternativi per costruire l’AGI, inclusi metodi come l’apprendimento per rinforzo, in cui gli agenti di intelligenza artificiale imparano dall’ambiente circostante in un ambiente virtuale simile a un gioco.

Martedì, in un evento tenutosi a Londra, il capo di DeepMind, Sir Demis Hassabis, ha affermato che ciò che mancava nei modelli linguistici era che “non capivano il contesto spaziale in cui ti trovi. . . quindi questo alla fine limita la loro utilità”.

Meta ha creato il suo laboratorio Fair nel 2013 per aprire la strada alla ricerca sull’intelligenza artificiale, assumendo accademici di spicco nel settore.

Tuttavia, all'inizio del 2023, Meta ha creato un nuovo team GenAI, guidato dal chief product officer Chris Cox. Ha portato via molti ricercatori e ingegneri di intelligenza artificiale da Fair, ha guidato il lavoro su Llama 3 e lo ha integrato in prodotti, come i suoi nuovi assistenti di intelligenza artificiale e strumenti di generazione di immagini.

La creazione del team GenAI è avvenuta quando alcuni addetti ai lavori sostenevano che una cultura accademica all'interno del laboratorio Fair fosse in parte responsabile del tardivo arrivo di Meta al boom dell'intelligenza artificiale generativa. Zuckerberg ha spinto per più applicazioni commerciali dell’intelligenza artificiale sotto la pressione degli investitori.

Tuttavia, LeCun è rimasto uno dei principali consiglieri di Zuckerberg, secondo persone vicine all'azienda, grazie al suo curriculum e alla reputazione di uno dei padri fondatori dell'intelligenza artificiale, vincendo un Turing Award per il suo lavoro sulle reti neurali.

“Abbiamo riorientato Fair verso l'obiettivo a lungo termine dell'intelligenza artificiale a livello umano, essenzialmente perché GenAI ora si concentra su ciò verso cui abbiamo un percorso chiaro”, ha affermato LeCun.

“[Achieving AGI] non è un problema di progettazione del prodotto, non è nemmeno un problema di sviluppo tecnologico, è soprattutto un problema scientifico”, ha aggiunto.

LeCun ha pubblicato per la prima volta un articolo sulla sua visione di modellazione del mondo nel 2022 e da allora Meta ha pubblicato due modelli di ricerca basati su questo approccio.

Oggi, ha detto, Fair sta testando diverse idee per raggiungere un'intelligenza di livello umano perché “c'è molta incertezza ed esplorazione in questo, [so] non possiamo dire quale avrà successo o finirà per essere scelto”.

Tra questi, il team di LeCun sta alimentando i sistemi con ore di video e tralasciando deliberatamente i fotogrammi, per poi fare in modo che l'intelligenza artificiale preveda cosa accadrà dopo. Questo per imitare il modo in cui i bambini imparano osservando passivamente il mondo che li circonda.

Ha anche detto che Fair sta esplorando la costruzione di “un sistema universale di codifica del testo” che consentirebbe a un sistema di elaborare rappresentazioni astratte della conoscenza nel testo, che possano poi essere applicate a video e audio.

Alcuni esperti dubitano che la visione di LeCun sia realizzabile.

Aron Culotta, professore associato di informatica alla Tulane University, ha affermato che il buon senso è stato a lungo “una spina nel fianco dell’intelligenza artificiale” e che è difficile insegnare la causalità ai modelli, lasciandoli “suscettibili a questi fallimenti inaspettati”.

Un ex dipendente di Meta AI ha descritto la spinta alla modellazione mondiale come “vaga sciocchezza”, aggiungendo: “Sembra un sacco di bandiere piantate”.

Un altro attuale dipendente ha affermato che Fair deve ancora dimostrarsi un vero rivale per gruppi di ricerca come DeepMind.

Nel lungo termine, LeCun ritiene che la tecnologia alimenterà gli agenti di intelligenza artificiale con cui gli utenti potranno interagire attraverso la tecnologia indossabile, tra cui la realtà aumentata o occhiali “intelligenti” e “braccialetti” per elettromiografia (EMG).

“[For AI agents] per essere davvero utili, devono avere qualcosa di simile all’intelligenza di livello umano”, ha affermato.