I rack forniti da Dell includono 72 GPU Nvidia Blackwell Ultra, 36 CPU Grace basate su Arm con 72 core, e 36 DPUs BlueField per rack. Questa configurazione offre una potenza di calcolo di 1.1 ExaFLOPS per l'inferenza FP4 e 0.36 ExaFLOPS per l'addestramento FP8, migliorando del 50% le prestazioni rispetto alla versione precedente. I sistemi supportano inoltre 20 TB di HBM3E e 40 TB di RAM totale. Le connessioni di rete vengono gestite tramite switch InfiniBand Quantum-X800 e SuperNICs ConnectX-8, consentendo velocità di trasferimento fino a 14.4 GB/s.
La soluzione è progettata per l'ottimizzazione delle prestazioni in addestramento e inferenza ed è raffreddata a liquido per gestire il consumo energetico elevato, fino a 1.400W per GPU. Questo deployment rappresenta la seconda collaborazione tra Dell e CoreWeave per l'implementazione delle più recenti tecnologie AI di Nvidia, evidenziando la continua innovazione e velocità di esecuzione delle due aziende.
L'infrastruttura avanzata permetterà a CoreWeave di migliorare la sua piattaforma cloud, gestendo modelli linguistici di grandi dimensioni e processi di ragionamento. L'espansione dell'uso dei rack GB300 NVL72 aumenterà le prestazioni disponibili per i clienti.
Cosa sono i sistemi NVIDIA GB300 NVL72 e quali vantaggi offrono?
I sistemi NVIDIA GB300 NVL72 sono soluzioni rack-scale che integrano 72 GPU Blackwell Ultra e 36 CPU Grace basate su Arm. Offrono fino a 1,1 ExaFLOPS per l'inferenza FP4 e 0,36 ExaFLOPS per l'addestramento FP8, migliorando del 50% le prestazioni rispetto alla generazione precedente. Inoltre, supportano fino a 20 TB di memoria HBM3E e 40 TB di RAM totale, connettività InfiniBand Quantum-X800 e velocità di trasferimento fino a 14,4 GB/s.
Qual è il ruolo di CoreWeave nella collaborazione con Dell e NVIDIA?
CoreWeave, fornitore di servizi cloud AI, ha collaborato con Dell e NVIDIA per implementare i sistemi GB300 NVL72, diventando il primo provider cloud a offrire questa tecnologia ai clienti. Questa collaborazione mira a potenziare la piattaforma cloud di CoreWeave, consentendo la gestione di modelli linguistici di grandi dimensioni e processi di ragionamento avanzati.
Quali sono le caratteristiche principali del superchip Blackwell Ultra utilizzato nei sistemi GB300 NVL72?
Il superchip Blackwell Ultra combina due GPU di dimensioni reticolari, offrendo 15 petaflops di prestazioni FP4 e 288 GB di memoria HBM3e. Questa architettura avanzata consente un miglioramento significativo delle prestazioni per carichi di lavoro AI complessi, come l'addestramento di modelli di linguaggio di grandi dimensioni e l'inferenza in tempo reale.
Come influisce il raffreddamento a liquido sulle prestazioni dei sistemi GB300 NVL72?
Il raffreddamento a liquido è essenziale per gestire l'elevato consumo energetico dei sistemi GB300 NVL72, che può raggiungere fino a 1.400W per GPU. Questo metodo di raffreddamento consente di mantenere temperature operative ottimali, garantendo prestazioni stabili e prolungando la durata dei componenti hardware.
Quali sono le implicazioni dell'implementazione dei sistemi GB300 NVL72 per il settore dell'AI?
L'implementazione dei sistemi GB300 NVL72 rappresenta un significativo avanzamento nell'infrastruttura AI, offrendo prestazioni superiori e maggiore efficienza energetica. Questo progresso consente alle aziende di accelerare lo sviluppo e l'implementazione di modelli AI complessi, migliorando la capacità di elaborazione e riducendo i tempi di addestramento.
In che modo la collaborazione tra Dell, NVIDIA e CoreWeave influisce sul mercato dei servizi cloud AI?
La collaborazione tra Dell, NVIDIA e CoreWeave rafforza la posizione di CoreWeave come leader nel mercato dei servizi cloud AI, offrendo ai clienti accesso a infrastrutture avanzate per l'addestramento e l'inferenza di modelli AI. Questa partnership evidenzia l'importanza di soluzioni integrate e scalabili per soddisfare la crescente domanda di potenza di calcolo nel settore dell'intelligenza artificiale.