Ven. Ott 4th, 2024

Microsoft ha presentato i suoi primi chip su misura per l’intelligenza artificiale nel cloud, mentre gli sviluppatori chiedono a gran voce fornitori alternativi a Nvidia, che domina il mercato dei processori AI.

Due nuovi processori – un chip generico basato su progetti Arm chiamato Cobalt e un “acceleratore” AI specializzato chiamato Maia – saranno distribuiti nei data center Azure di Microsoft il prossimo anno, supportando i suoi servizi tra cui OpenAI e Copilot.

L’ingresso di Microsoft nel mercato dei processori AI, annunciato mercoledì alla conferenza degli sviluppatori Ignite, fa seguito ai rinnovati sforzi di Intel e AMD per competere con Nvidia, che detiene il monopolio virtuale sulle unità di elaborazione grafica ad alta potenza, o GPU, necessarie per addestrare grandi dimensioni Modelli di intelligenza artificiale.

La domanda per i chip A100 e H100 di Nvidia ha superato di gran lunga l’offerta nell’ultimo anno, e persino Microsoft si è rivolta a fornitori cloud rivali come Oracolo per capacità GPU extra per supportare i propri servizi AI. In un altro segno di limiti di capacità di calcolo nell’intelligenza artificiale, OpenAI – che è sostenuta da Microsoft e fa molto affidamento sulla sua infrastruttura – è stata costretta martedì a “pausa” nuove iscrizioni al servizio ChatGPT Plus dopo un “aumento di utilizzo”.

L’iniziativa sui chip di Microsoft arriva anni dopo che i suoi rivali di cloud computing Google e Amazon hanno introdotto per la prima volta i propri acceleratori di intelligenza artificiale. I suoi investimenti nel silicio mostrano come stia raddoppiando la scommessa multimiliardaria secondo cui l’intelligenza artificiale generativa – la tecnologia che alimenta il ChatGPT di OpenAI ed è in grado di creare testi, codici e immagini simili a quelli umani – definirà l’industria tecnologica negli anni ’20.

“Saranno proprio questi investimenti fondamentali che stiamo facendo che contribuiranno a impostare il prossimo decennio di innovazione nel [AI] spazio”, ha detto al MagicTech Scott Guthrie, vicepresidente esecutivo del gruppo cloud e intelligenza artificiale di Microsoft. Entrambi i chip sono i primi di una serie, con versioni successive in fase di sviluppo.

Microsoft, che quest’anno si è impegnata a investire 10 miliardi di dollari in OpenAI come parte di una partnership pluriennale, ha progettato il suo chip Maia per funzionare al meglio con il grande modello linguistico dell’azienda di intelligenza artificiale, GPT.

Un ingegnere Microsoft gestisce una stazione sonda
Dal 2016 Microsoft ha sviluppato sempre più internamente l’hardware del proprio data center ©Microsoft/Reuters

Dal 2016 Microsoft ha sviluppato sempre più internamente l’hardware del proprio data center. Il silicio personalizzato rappresenta il passo più ambizioso finora volto a legare più strettamente insieme il proprio “stack” hardware e software, promettendo prestazioni ed efficienza migliorate. Ciò contribuirebbe ad aumentare il valore per i clienti di Azure, ha affermato Guthrie, e aiuterebbe a far crescere i margini di Microsoft, che sono migliorati nell’ultimo trimestre nonostante l’aumento delle spese in conto capitale tra le società cloud.

“In quest’era dell’intelligenza artificiale, ci saranno più carichi di lavoro e più esigenze, di diversi ordini di grandezza, rispetto a dove ci troviamo oggi”, ha affermato Guthrie. “E quindi, ogni livello di ottimizzazione, ogni livello di miglioramento delle prestazioni che possiamo ottenere aiuterà tutti.”

I chip hanno già ricevuto l’approvazione da Sam Altman, amministratore delegato di OpenAI, che ha collaborato con Microsoft per svilupparli e testarli.

“L’architettura AI end-to-end di Azure, ora ottimizzata fino al silicio con Maia, apre la strada alla formazione di modelli più capaci e a renderli più economici per i nostri clienti”, ha affermato in una nota. Fino ad ora, OpenAI si è affidata ai chip di Nvidia per addestrare i modelli GPT.

Si stima che lo sviluppo di silicio personalizzato costi centinaia di milioni di dollari, rendendolo un progetto che solo le aziende più ricche del settore tecnologico sono in grado di intraprendere.

I chip AI per data center di Microsoft, che nel gergo del settore sono chiamati circuiti integrati specifici per l’applicazione o ASIC, seguiranno il debutto di Google dei propri acceleratori TPU nel 2015 e dei processori Trainium di Amazon Web Services, presentati nel 2020. Anthropic, la più grande start-up di OpenAI rivale, ha dichiarato il mese scorso di voler utilizzare sia chip Trainium che TPU.

Il chip Maia di Microsoft
Quando Maia verrà lanciato il prossimo anno, i clienti Microsoft potranno sperimentarlo utilizzando i servizi Bing, Microsoft 365 e Azure OpenAI

Quando Maia verrà lanciato il prossimo anno, i clienti Microsoft lo sperimenteranno quando utilizzeranno i suoi servizi Bing, Microsoft 365 e Azure OpenAI, invece di sfruttarlo direttamente per eseguire le proprie applicazioni basate su cloud. “Internamente possiamo utilizzare automaticamente il silicio senza che alcun cliente debba effettivamente modificare nulla”, ha affermato Guthrie.

Rani Borkar, vicepresidente aziendale per i sistemi e le infrastrutture hardware di Azure, ha dichiarato al FT che Maia sarà distribuito ai clienti del cloud pubblico in futuro. “Poiché si tratta della prima generazione, ci stiamo assicurando di testarli”, ha detto Borkar. “Non sarà solo limitato internamente: stiamo appena iniziando”.

Sebbene Microsoft sviluppi chip per i suoi dispositivi Xbox e HoloLens da oltre un decennio, il suo impegno per creare silicio personalizzato per Azure è iniziato nel 2020.

Quando Microsoft ha iniziato a lavorare al progetto, c’era “un livello molto alto per chiunque entrasse nel mondo del silicio”, ha detto Guthrie, a causa dell’ampia diversità nei tipi di compiti che un processore AI avrebbe dovuto supportare. È diventato più semplice sviluppare un acceleratore appositamente costruito per un singolo modello, GPT. Il modello di OpenAI sta guadagnando slancio tra gli sviluppatori di intelligenza artificiale, anche se i concorrenti includono PaLM di Google, Claude di Anthropic e LLaMa di Meta.

Microsoft ha affermato che Maia è stata progettata sia per modelli di “addestramento” di intelligenza artificiale – la parte più ad alta intensità di calcolo del processo di intelligenza artificiale che coinvolge grandi quantità di dati – sia per “inferenza” o fornitura di servizi di intelligenza artificiale, tra cui ChatGPT e GitHub Copilot, che utilizza l’intelligenza artificiale per aiutare scrivere software. Il chip AI è prodotto dalla Taiwan Semiconductor Manufacturing Company utilizzando il processo a 5 nm della fonderia.

Anche se Microsoft crea alternative ai produttori di chip esistenti, Borkar ha affermato che “continuerà le nostre forti partnership in tutto il settore”, anche rendendo disponibili ai clienti Azure le ultime GPU di AMD e Nvidia. “Nella scala in cui operiamo, è importante ottimizzare e integrare ogni livello dello stack per massimizzare le prestazioni, ma è anche importante diversificare e offrire scelte ai nostri clienti”, ha aggiunto.

Ben Bajarin, analista del settore tecnologico presso la società di consulenza Creative Strategies, ha affermato che la capacità di Microsoft di sviluppare i suoi chip di concerto con il suo software e altre parti della sua infrastruttura di data center è stato un “vero elemento di differenziazione” rispetto ad altri fornitori di servizi cloud.

Lo ha paragonato agli sforzi di lunga data di Apple per sviluppare processori personalizzati per i suoi iPhone e Mac o ai chip video dedicati di Google per YouTube, che aiutano a offrire un’esperienza più fluida ai clienti.

“Non tutti possono farlo. Non tutti lo faranno”, ha detto Bajarin. “Ma per coloro che controllano abbastanza risorse e hanno le risorse, questo [custom silicon] la tendenza continuerà.”