Nvidia lancia il supercomputer AI Vera Rubin NVL72
Promette performance di inferenza 5 volte superiori e costi per token 10 volte inferiori rispetto a Blackwell.
Nvidia ha presentato il nuovo supercomputer AI Vera Rubin NVL72 al CES 2026. Questo avanzato sistema è stato progettato per rivoluzionare il mondo dell'intelligenza artificiale, promettendo performance di inferenza fino a 5 volte maggiori e costi per token ridotti di 10 volte rispetto al predecessore Blackwell.
Il Vera Rubin è basato su un'architettura rack-scale di nuova generazione, frutto di un'innovativa co-progettazione tra sei tipologie di chip: CPU Vera, GPU Rubin, switch NVLink 6, SuperNIC ConnectX-9, DPU BlueField-4 e switch Ethernet Spectrum-6. Questa infrastruttura è pensata per rispondere alla crescente domanda di potenza di calcolo nel settore AI.
Le GPU Rubin offrono 50 PFLOPS di performance di inferenza e 35 PFLOPS per il training. Ogni pacchetto GPU include otto stack di memoria HBM4 con una capacità di 288GB e una larghezza di banda di 22 TB/s.
Il sistema introduce inoltre il NVLink 6 per migliorare la comunicazione e la scala delle reti, aumentando la larghezza di banda a 3.6 TB/s per GPU.
Nvidia punta sulla sicurezza espandendo l'ambiente di esecuzione affidabile a tutto il rack, proteggendo così i preziosi modelli dei laboratori AI.
La produzione in volumi del Vera Rubin NVL72 è prevista per la seconda metà del 2026.
Cosa rende il supercomputer AI Vera Rubin NVL72 di Nvidia così innovativo?
Il Vera Rubin NVL72 introduce un'architettura rack-scale di nuova generazione che combina sei tipologie di chip: CPU Vera, GPU Rubin, switch NVLink 6, SuperNIC ConnectX-9, DPU BlueField-4 e switch Ethernet Spectrum-6. Questa integrazione consente performance di inferenza fino a 5 volte superiori e una riduzione dei costi per token di 10 volte rispetto al predecessore Blackwell.
Quali sono le specifiche principali delle GPU Rubin nel sistema Vera Rubin?
Le GPU Rubin offrono 50 PFLOPS di performance di inferenza e 35 PFLOPS per il training. Ogni GPU è dotata di otto stack di memoria HBM4 con una capacità totale di 288GB e una larghezza di banda di 22 TB/s, garantendo un'elevata velocità di elaborazione e gestione dei dati.
In che modo il NVLink 6 migliora la comunicazione nel sistema Vera Rubin?
Il NVLink 6 aumenta la larghezza di banda di comunicazione tra le GPU a 3,6 TB/s, migliorando significativamente la scala e l'efficienza delle reti all'interno del supercomputer. Questo consente una comunicazione più rapida e affidabile tra i componenti, essenziale per applicazioni AI ad alte prestazioni.
Quali sono le implicazioni dell'architettura rack-scale nel settore dell'intelligenza artificiale?
L'architettura rack-scale consente di integrare e coordinare più componenti hardware in un unico sistema coeso, migliorando l'efficienza energetica e le prestazioni complessive. Questo approccio è fondamentale per soddisfare la crescente domanda di potenza di calcolo nel settore AI, permettendo l'elaborazione di modelli sempre più complessi.
Come si confronta il Vera Rubin NVL72 con il Blackwell GB300 NVL72 in termini di prestazioni?
Il Vera Rubin NVL72 offre un miglioramento delle prestazioni di inferenza fino a 5 volte rispetto al Blackwell GB300 NVL72. Inoltre, introduce avanzamenti come il NVLink 6 e una maggiore capacità di memoria, rendendolo più adatto per applicazioni AI di nuova generazione.
Quali sono le prospettive future per la linea di prodotti Vera Rubin di Nvidia?
Nvidia prevede di rilasciare il Vera Rubin NVL144 nella seconda metà del 2026, seguito dal Rubin Ultra NVL576 nel 2027. Questi sistemi offriranno prestazioni ancora superiori, con il NVL144 che raggiunge 3,6 exaflops di inferenza FP4 e il NVL576 che mira a 15 exaflops, rispondendo alle esigenze crescenti del settore AI.