Intel svela Jaguar Shores e Diamond Rapids con memorie di nuova generazione
Annunciate nuove CPU e acceleratori AI con tecnologie HBM4 e MRDIMM di seconda generazione.
Intel ha presentato dettagli sui suoi imminenti prodotti al summit AI di Seul. Tra le novità, i processori Diamond Rapids e gli acceleratori Jaguar Shores spiccano, grazie all'adozione di tecnologie di memoria di nuova generazione.
Jaguar Shores, destinato a sostituire Falcon Shores, sarà il primo AI GPU di Intel a utilizzare memorie HBM4 di SK hynix. Questa scelta, sebbene prevista, è cruciale per garantire le prestazioni necessarie a supportare l'elaborazione di modelli avanzati di AI, come i LLM e LRM.
Parallelamente, il processore Diamond Rapids, appartenente alla famiglia Xeon, impiegherà i moduli MRDIMM di seconda generazione. Questi moduli offrono una performance migliorata rispetto alla generazione precedente, grazie all'integrazione di due ranghi DDR operanti in modalità multiplexed.
I nuovi MRDIMM sono progettati per incrementare la velocità di trasferimento dati fino a 12,800 MT/s, mantenendo latenza e consumi energetici sotto controllo. Questo si traduce in una riduzione della latenza del 40% rispetto ai tradizionali RDIMM DDR5-6400, migliorando l'efficienza del sottosistema di memoria.
Cosa sono i processori Diamond Rapids e quali miglioramenti offrono rispetto alle generazioni precedenti?
I processori Diamond Rapids sono la prossima generazione di CPU Xeon di Intel, progettati per data center e applicazioni ad alte prestazioni. Utilizzano moduli MRDIMM di seconda generazione, che offrono velocità di trasferimento dati fino a 12.800 MT/s, un incremento del 45% rispetto agli 8.800 MT/s dei moduli MRDIMM di prima generazione. Questo miglioramento consente una maggiore efficienza nel sottosistema di memoria, riducendo la latenza e migliorando le prestazioni complessive del sistema.
Quali sono le caratteristiche principali degli acceleratori Jaguar Shores e come si differenziano dai predecessori?
Gli acceleratori Jaguar Shores sono le future GPU AI di Intel, destinate a sostituire i precedenti acceleratori Falcon Shores. Saranno i primi acceleratori AI di Intel a utilizzare memorie HBM4 fornite da SK hynix, offrendo una larghezza di banda di 2,0 TB/s per modulo su 2.048 pin I/O. Questa scelta tecnologica è cruciale per supportare l'elaborazione di modelli avanzati di intelligenza artificiale, come i modelli di linguaggio di grandi dimensioni
In che modo l'adozione delle memorie HBM4 negli acceleratori Jaguar Shores influisce sulle prestazioni dell'intelligenza artificiale?
L'adozione delle memorie HBM4 negli acceleratori Jaguar Shores consente di raggiungere una larghezza di banda di 2,0 TB/s per modulo, fondamentale per gestire l'enorme quantità di dati richiesta dai modelli avanzati di intelligenza artificiale. Questa elevata larghezza di banda migliora significativamente le prestazioni di training e inferenza dei modelli AI, riducendo i colli di bottiglia legati alla memoria e aumentando l'efficienza complessiva del sistema.
Cosa sono le memorie HBM4 e quali vantaggi offrono rispetto alle generazioni precedenti?
Le memorie HBM4
Qual è il ruolo di SK hynix nella fornitura di memorie per i nuovi prodotti Intel?
SK hynix collabora con Intel fornendo memorie avanzate per i suoi nuovi prodotti. In particolare, fornisce le memorie HBM4 per gli acceleratori Jaguar Shores e i moduli MRDIMM di seconda generazione per i processori Diamond Rapids. Questa partnership mira a garantire che i prodotti Intel siano equipaggiati con le memorie più veloci e efficienti disponibili sul mercato, migliorando le prestazioni complessive dei sistemi.
Quali sono le principali sfide nell'integrazione delle memorie HBM4 nei sistemi di intelligenza artificiale?
L'integrazione delle memorie HBM4 nei sistemi di intelligenza artificiale presenta diverse sfide, tra cui la gestione del calore generato dall'elevata densità di dati e la complessità del design dei circuiti per supportare la larghezza di banda aumentata. Inoltre, la produzione di memorie HBM4 richiede tecnologie avanzate come il Through-Silicon Via