Microsoft svela una CPU personalizzata per datacenter Arm a 128 core, una massiccia GPU Maia 100 progettata per l'IA
I chip per datacenter Cobalt e Maia sono costruiti presso TSMC.
Microsoft ha annunciato due nuovi chip personalizzati, il Azure Maia 100 AI Accelerator e il Azure Cobalt 100 CPU, progettati nel suo laboratorio di silicio di Redmon, Washington. Entrambi i chip saranno prodotti presso TSMC e saranno utilizzati nei data center di Microsoft a partire dal prossimo anno. I dettagli specifici sui chip non sono stati rilasciati, ma si sa che il Maia 100 è un acceleratore GPU progettato per modelli di linguaggio di grandi dimensioni. Microsoft ha anche annunciato nuove partnership con AMD e Nvidia. Questi annunci avranno un impatto significativo sul mercato dei chip per data center.
Microsoft ha annunciato due chip personalizzati progettati nel suo laboratorio di silicio di Redmon, Washington: l'acceleratore di intelligenza artificiale Azure Maia 100 e la CPU Azure Cobalt 100. Entrambi i chip sono prodotti presso 'l'ultimo nodo di processo' di TSMC, ha dichiarato Microsoft a Tom's Hardware.
Questi chip appariranno 'all'inizio dell'anno prossimo' nei data center di Microsoft, che inizieranno eseguendo Copilot di Microsoft, Azure OpenAI e altri servizi. Quando è stato chiesto quanti chip saranno disponibili, un portavoce ha risposto che Microsoft si trova nelle 'prime fasi di distribuzione' con 'server iniziali' online nei suoi data center. L'azienda continuerà comunque a offrire servizi ai clienti utilizzando chip di partner come Nvidia e AMD.
Microsoft non sta rilasciando molti dettagli sulle specifiche, rendendo difficile confrontare le nuove offerte con le opzioni di Nvidia e AMD.
Quando è stato chiesto ulteriori dettagli, Microsoft ha dichiarato a Tom's Hardware che Maia 100 è prodotto con un processo a 5 nanometri e vanta 105 miliardi di transistor, 'rendendolo uno dei chip più grandi che possono essere realizzati con la tecnologia attuale'.
'I server di Maia sono progettati con un protocollo di rete completamente personalizzato basato su Ethernet con una larghezza di banda aggregata di 4,8 terabit per acceleratore per consentire una migliore scalabilità e prestazioni di carico di lavoro end-to-end', ha aggiunto Microsoft.
Ciò che sappiamo è che l'acceleratore di intelligenza artificiale Maia 100, una GPU, è progettato per modelli di linguaggio di grandi dimensioni. Microsoft afferma che OpenAI ha 'fornito feedback' sui progetti di Maia 100.
'Siamo stati entusiasti quando Microsoft ha condiviso per la prima volta i loro progetti per il chip Maia, e abbiamo lavorato insieme per affinarlo e testarlo con i nostri modelli', ha dichiarato il CEO di OpenAI Sam Altman nel post del blog di Microsoft. 'L'architettura AI end-to-end di Azure, ora ottimizzata fino al silicio con Maia, apre la strada per la formazione di modelli più capaci e rende quei modelli più economici per i nostri clienti.'
Brian Harry, un tecnico di Microsoft che guida il team di Maia, ha detto che Maia 100 è stato creato appositamente per l'infrastruttura esistente di Microsoft e che può 'garantire enormi miglioramenti in termini di prestazioni ed efficienza'.
Nel frattempo, la CPU Cobalt 100 è basata su Arm, che Wes McCullough, vicepresidente corporate dello sviluppo di prodotti hardware, ha dichiarato nel post del blog, 'è progettata con l'efficienza energetica in mente'.
'Azure Cobalt utilizza un design con licenza di Arm basato su ARM Neoverse CSS che è personalizzato per le esigenze di Microsoft', ha dichiarato Microsoft a Tom's Hardware. 'Il chip a 128 core a 64 bit rappresenta miglioramenti delle prestazioni fino al 40% rispetto alle generazioni attuali dei server Arm di Azure'.
L'azienda afferma anche che progettare i propri chip consente di aumentare il raffreddamento nei data center e di aumentare la capacità nelle strutture esistenti. L'azienda ha dichiarato che non c'erano armadi server che potessero 'ospitare i requisiti unici delle schede server Maia 100', il che ha richiesto la costruzione di armadi da zero.
'Questi armadi sono più larghi rispetto a quelli che di solito si trovano nei data center dell'azienda', si legge nel post del blog di Microsoft. 'Questo design ampliato offre ampio spazio sia per i cavi di alimentazione che per quelli di rete, essenziali per le esigenze uniche dei carichi di lavoro di intelligenza artificiale.'
L'azienda ha anche dovuto trovare una soluzione di raffreddamento a liquido per raffreddare questi chip durante complesse attività di intelligenza artificiale, ma non aveva data center attrezzati con 'grandi unità di raffreddamento a liquido'. Quindi Microsoft sta utilizzando quello che chiama un 'sidekick' che può essere posizionato accanto a un rack di server Maia 100, inviare liquido freddo a piastre di raffreddamento attaccate ai chip Maia 100 e quindi inviare il liquido caldo di nuovo al sidekick per rimuovere il calore e riportare il liquido nell'armadio.
Microsoft afferma di aver condiviso i progetti personalizzati di armadi e raffreddamento con partner del settore.
'Tutto ciò che costruiamo, che sia infrastruttura o software o firmware, possiamo sfruttarlo sia che distribuiamo i nostri chip che quelli dei nostri partner del settore', ha detto Pat Stemen, responsabile del programma di partnership nel team di Azure Hardware Systems and Infrastructure di Microsoft. 'Questa è una scelta che il cliente può fare, e stiamo cercando di fornire il miglior set di opzioni per loro, che si tratti di prestazioni o costi o qualsiasi altra dimensione che li interessa.'
L'azienda sta già lavorando alle versioni di seconda generazione sia dell'acceleratore di intelligenza artificiale Maia che della CPU Azure Cobalt.
Oltre all'hardware nuovo, Microsoft ha anche annunciato Azure Boost, che afferma può rendere più veloci i process