Sab. Mag 16th, 2026
AMD lancia un nuovo chip AI per rivaleggiare con Nvidia

Sblocca gratuitamente il Digest dell'editore

L'amministratore delegato di AMD ritiene che il produttore di chip stia colmando il divario prestazionale con i processori di intelligenza artificiale leader di mercato di Nvidia, poiché ha presentato nuovi prodotti destinati a un mercato del valore di centinaia di miliardi di dollari.

Giovedì il gruppo con sede nella Silicon Valley ha annunciato che il suo chip MI325X sarà distribuito ai clienti nel quarto trimestre di quest'anno, affermando che offre prestazioni “leader del settore” rispetto all'attuale generazione di chip AI H200 di Nvidia.

Il chip MI350 di prossima generazione di AMD, che mira a competere con il nuovo sistema Blackwell di Nvidia, sarà disponibile nella seconda metà del 2025.

Il produttore di chip statunitense è tornato dall’orlo della bancarotta dieci anni fa, quando Lisa Su ha assunto la carica di amministratore delegato, per emergere come il principale sfidante alla presa di Nvidia sull’infrastruttura che alimenta l’intelligenza artificiale generativa.

Su ha affermato che il suo obiettivo è che l’azienda diventi il ​​“leader dell’intelligenza artificiale end-to-end” nei prossimi 10 anni. “Devi essere estremamente ambizioso”, ha detto Su al MagicTech. “Questo è l’inizio, non la fine, della corsa all’intelligenza artificiale”.

Ciò avviene mentre si prevede che i clienti di Nvidia inizieranno a implementare Blackwell nel trimestre in corso, con Microsoft questa settimana che afferma di essere diventato il primo fornitore di servizi cloud a offrire gli ultimi chip GB200 ai propri clienti.

Mentre anche i cosiddetti “hyperscaler” – Microsoft, Google e Amazon – stanno costruendo i propri chip AI interni, AMD è diventata il concorrente più vicino di Nvidia nella corsa per offrire chip AI standardizzati.

Resta comunque un secondo lontano. I 4,5 miliardi di dollari previsti da AMD in vendite di chip AI per il 2024 sono piccoli rispetto ai 26,3 miliardi di dollari di vendite di chip per data center AI che Nvidia ha realizzato nel solo trimestre fino alla fine di luglio.

Ma Su è fiducioso che la domanda non farà altro che crescere nei prossimi anni. La società ha previsto che il mercato totale indirizzabile per i chip AI raggiungerà i 400 miliardi di dollari entro il 2027.

“Quando abbiamo iniziato, questo era considerato un numero davvero grande”, ha detto Su. “E penso che le persone si stiano muovendo verso il nostro grande numero a causa dell’enorme domanda che c’è per l’infrastruttura AI”.

I chip sono solo una parte dell’infrastruttura necessaria per costruire sistemi di intelligenza artificiale all’avanguardia. Giovedì AMD ha anche annunciato nuove tecnologie di rete e aggiornamenti al suo toolkit software ROCm, tutti mirati a offrire infrastrutture AI in modo rapido e su larga scala.

“Una delle cose che stiamo davvero mettendo insieme è l'infrastruttura end-to-end per il data center”, ha affermato Su. “Le persone vogliono un grande cluster [of chips in a server] in modo da poter addestrare i modelli linguistici più grandi.

Su, che ha un dottorato in ingegneria elettrica presso il Massachusetts Institute of Technology, ha lavorato presso Texas Instruments, IBM e Freescale Semiconductor prima di entrare in AMD nel 2012 come vicepresidente senior.

Quando ha assunto la carica di amministratore delegato nel 2014, le azioni di AMD languivano intorno ai 4 dollari, con alcuni analisti che prevedevano che sarebbe andata in bancarotta nel giro di pochi anni poiché lottava per competere con Intel.

Oggi, AMD ha conquistato una quota importante del mercato dei chip per server e ha scavalcato Intel nell’intelligenza artificiale diversificandosi dal tradizionale business dei PC. Mercoledì prima dell'annuncio le azioni di AMD hanno chiuso a 171 dollari, con una capitalizzazione di mercato di circa 275 miliardi di dollari, quasi il triplo di quella di Intel.

Su vede l'intelligenza artificiale come il motore principale della prossima era di crescita di AMD e sta cercando di conquistare gli stessi clienti di Nvidia.

“Le persone sono davvero aperte a provare diverse architetture e vedere quale si adatta meglio al loro carico di lavoro”, ha affermato Su. Finora, sia Microsoft che Meta hanno adottato l'attuale generazione di unità di elaborazione grafica (GPU) AI MI300 di AMD.

Amazon, che è già cliente delle CPU per server AMD, probabilmente seguirà, ha detto Su: “È una conversazione 'punto nel tempo'.”

L'approccio di AMD è parallelo a quello che Nvidia sta facendo con Blackwell, dove mira a vendere non singoli chip, ma interi server rack composti da più chip, combinati con le apparecchiature di rete di Nvidia.

Per recuperare terreno, AMD ha perseguito una strategia aggressiva di investimenti e acquisizioni, incluso il recente annuncio dell’acquisizione da 4,9 miliardi di dollari di ZT Systems, che costruisce server per il piccolo gruppo di hyperscaler AI.

In termini di potenziali revisioni normative dell’accordo, Su ha affermato che “la nostra attuale aspettativa è USA-UE [checks]e ci sono anche alcune altre giurisdizioni, ma al momento non superiamo le soglie per la Cina”.