Jensen Huang: SRAM non sostituirà HBM nell'AI di Nvidia
Il CEO di Nvidia spiega perché l'adattabilità dell'HBM resta cruciale per le applicazioni AI nonostante i progressi di SRAM.
Durante il CES 2026, il CEO di Nvidia, Jensen Huang, ha chiarito la posizione dell'azienda sulla memoria ad alta larghezza di banda (HBM) rispetto all'SRAM. A differenza delle previsioni che vedono l'SRAM come una valida alternativa economica, Huang ha sottolineato come la natura mutevole dei carichi di lavoro nel campo dell'AI richieda la flessibilità che solo l'HBM può offrire.
Huang ha riconosciuto le prestazioni superiori dell'SRAM in scenari specifici. Tuttavia, ha evidenziato che nel contesto di modelli di AI in produzione, l'SRAM non riesce a eguagliare il rapporto tra larghezza di banda e densità offerto dall'HBM. Questo limita l'efficienza dei design SRAM-centrici quando si tratta di gestire la complessità e la scala dei modelli moderni.
Il discorso si è anche concentrato sull'importanza della flessibilità hardware per affrontare la diversità dei modelli AI odierni, che spaziano dai modelli autoregressivi a quelli multimodali. Secondo Huang, la capacità di adattamento dell'HBM è essenziale per evitare che costosi silicio e risorse rimangano inutilizzati, un rischio concreto nei data center condivisi.
Infine, benché l'apertura dei modelli AI e l'uso dell'SRAM rappresentino variabili interessanti, Huang ha ribadito che non costituiscono una minaccia per la piattaforma Nvidia. Anzi, contribuiscono a rafforzare la necessità di hardware versatile e flessibile.
Cosa ha dichiarato Jensen Huang riguardo all'uso dell'HBM rispetto all'SRAM nei carichi di lavoro AI?
Durante il CES 2026, Jensen Huang ha sottolineato che, nonostante l'SRAM offra prestazioni superiori in scenari specifici, l'HBM è essenziale per gestire la complessità e la scala dei modelli AI moderni, grazie al suo miglior rapporto tra larghezza di banda e densità.
Perché l'SRAM non è considerata una valida alternativa all'HBM nei modelli AI in produzione?
L'SRAM, pur essendo più veloce, non può eguagliare l'HBM in termini di capacità e larghezza di banda necessarie per i modelli AI in produzione, limitando l'efficienza dei design basati su SRAM quando si tratta di gestire modelli complessi e su larga scala.
Qual è l'importanza della flessibilità hardware nei modelli AI odierni secondo Jensen Huang?
Huang ha evidenziato che la flessibilità hardware, offerta dall'HBM, è cruciale per adattarsi alla diversità dei modelli AI attuali, evitando che risorse costose rimangano inutilizzate nei data center condivisi.
Quali sono le principali differenze tra HBM e SRAM in termini di capacità e larghezza di banda?
L'HBM offre una maggiore capacità e larghezza di banda rispetto all'SRAM, rendendola più adatta per gestire modelli AI complessi e su larga scala, mentre l'SRAM, pur essendo più veloce, ha limitazioni in termini di capacità e densità.
Come influisce la scelta tra HBM e SRAM sulle prestazioni dei data center AI?
L'adozione dell'HBM nei data center AI consente di gestire modelli più complessi e di dimensioni maggiori, migliorando l'efficienza e le prestazioni complessive, mentre l'uso dell'SRAM potrebbe limitare la scalabilità e l'efficacia dei modelli AI in produzione.
Quali sono le prospettive future per l'uso dell'HBM nelle applicazioni AI?
Con l'evoluzione dei modelli AI e l'aumento delle loro dimensioni e complessità, l'HBM continuerà a essere una componente chiave per fornire la capacità e la larghezza di banda necessarie, supportando l'innovazione e l'efficienza nelle applicazioni AI future.