Sblocca gratuitamente l'Editor's Digest
I rivali di Nvidia, che domina il mercato dei chip AI, sperano da tempo che un punto di svolta li aiuti a recuperare il terreno perduto.
Questo punto potrebbe essere a portata di mano. Finora, tuttavia, ci sono pochi segnali che Nvidia ceda il suo primato, anche se è ancora una questione aperta se il mercato dell'IA si svilupperà in modi che alla fine ne eroderanno il predominio.
Il problema chiave è quando l’attenzione principale dell’intelligenza artificiale si sposta dall’addestramento dei grandi modelli “fondamentali” che sostengono i moderni sistemi di intelligenza artificiale all’impiego diffuso di tali modelli nelle applicazioni utilizzate da un gran numero di consumatori e aziende.
Grazie alla loro capacità di gestire più calcoli in parallelo, le potenti unità di elaborazione grafica, o GPU, di Nvidia hanno mantenuto il loro predominio nell'addestramento AI ad alta intensità di dati. Al contrario, l'esecuzione di query su questi modelli AI, noti come inferenza, è un'attività meno impegnativa che potrebbe offrire un'apertura ai produttori di chip meno potenti e meno costosi.
Chiunque si aspettasse un rapido cambiamento sarà rimasto deluso. Il primato di Nvidia in questo nuovo mercato sembra già formidabile. Annunciando i suoi ultimi guadagni giovedì, ha affermato che oltre il 40 percento delle sue vendite di data center negli ultimi 12 mesi erano già legate all'inferenza, rappresentando più di 33 miliardi di $ di fatturato. Ciò equivale a più di due volte e mezzo le vendite totali della divisione data center di Intel nello stesso periodo.
Ma come si svilupperà il mercato dell'inferenza da qui in poi è incerto. Due domande determineranno l'esito: se il business dell'IA continuerà a essere dominato da una corsa alla costruzione di modelli di IA sempre più grandi e dove avrà luogo la maggior parte dell'inferenza.
Le fortune di Nvidia sono state fortemente legate alla corsa alla scala. L'amministratore delegato Jensen Huang ha affermato questa settimana che ci vogliono “10, 20, 40 volte la potenza di calcolo” per addestrare ogni nuova generazione di grandi modelli di intelligenza artificiale, garantendo un'enorme domanda per i prossimi chip Blackwell di Nvidia. Questi nuovi processori forniranno anche il modo più efficiente per eseguire inferenze su questi “modelli di parametri multitrilioni”, ha aggiunto.
Tuttavia, non è chiaro se i modelli sempre più grandi continueranno a dominare il mercato o se alla fine raggiungeranno un punto di rendimenti decrescenti. Allo stesso tempo, modelli più piccoli che promettono molti degli stessi vantaggi, così come modelli meno capaci progettati per compiti più ristretti, stanno già diventando di moda. Meta, ad esempio, ha recentemente affermato che il suo nuovo Llama 3.1 potrebbe eguagliare le prestazioni dei modelli avanzati come GPT-4 di OpenAI, nonostante sia molto più piccolo.
Tecniche di training migliorate, che spesso si basano su grandi quantità di dati di alta qualità, hanno aiutato. Una volta addestrati, i modelli più grandi possono anche essere “distillati” in versioni più piccole. Tali sviluppi promettono di portare più lavoro di inferenza AI in data center più piccoli, o “edge”, e su smartphone e PC. “I carichi di lavoro AI si avvicineranno a dove si trovano i dati o dove si trovano gli utenti”, afferma Arun Chandrasekaran, analista di Gartner.
La gamma di concorrenti che hanno un occhio di riguardo per questo mercato nascente è cresciuta rapidamente. La società di chip per dispositivi mobili Qualcomm, ad esempio, è stata la prima a produrre chip in grado di alimentare una nuova classe di PC con capacità di intelligenza artificiale, in linea con un design predisposto da Microsoft, uno sviluppo che lancia una sfida diretta al leader storico dei chip per PC Intel.
Nel frattempo, il mercato dei data center ha attirato una vasta gamma di potenziali concorrenti, dalle start-up come Cerebras e Groq ai giganti della tecnologia come Meta e Amazon, che hanno sviluppato i propri chip di inferenza.
È inevitabile che Nvidia perderà quote di mercato man mano che l'inferenza AI si sposta su dispositivi in cui non è ancora presente e sui data center delle aziende cloud che favoriscono i progetti di chip interni. Ma per difendere il suo territorio, si sta appoggiando pesantemente sulla strategia software che da tempo funge da fossato attorno al suo hardware, con strumenti che semplificano l'utilizzo dei suoi chip da parte degli sviluppatori.
Questa volta, sta lavorando su una gamma più ampia di software aziendali per aiutare le aziende a creare applicazioni che sfruttano al meglio l'intelligenza artificiale, cosa che garantirebbe anche la domanda per i suoi chip. Nvidia ha rivelato questa settimana che si aspetta che i suoi ricavi da questo software raggiungano un run-rate annuo di 2 miliardi di dollari entro la fine di quest'anno. La cifra è piccola per un'azienda che dovrebbe produrre un fatturato totale di oltre 100 miliardi di dollari, ma indica la crescente adozione di tecnologie che dovrebbero aumentare la “viscosità” dei prodotti. Il mercato dei chip AI potrebbe entrare in una nuova fase, ma la presa di Nvidia non mostra segni di allentamento.