Nvidia si prepara a lanciare nuove GPU per l'intelligenza artificiale e il calcolo ad alte prestazioni sul mercato cinese: rapporto
Soluzioni basate su Hopper e Ada Lovelace che rispettano i requisiti di esportazione degli Stati Uniti
Nvidia sta preparando tre nuove GPU per applicazioni di intelligenza artificiale (AI) e calcolo ad alte prestazioni (HPC) adatte al mercato cinese e conformi ai requisiti di esportazione degli Stati Uniti. Le nuove unità saranno basate sulle architetture Ada Lovelace e Hopper. I prodotti AI e HPC in questione sono le GPU HGX H20, L20 PCle e L2 PCle, che sono già in viaggio verso i produttori di server cinesi. Le nuove GPU offriranno prestazioni ridotte a causa delle restrizioni imposte dagli Stati Uniti.
Secondo quanto riportato da ChinaStarMarket.cn, Nvidia sta preparando tre nuove GPU per applicazioni di intelligenza artificiale (IA) e calcolo ad alte prestazioni (HPC) adattate al mercato cinese e conformi ai requisiti di esportazione degli Stati Uniti. Le nuove unità saranno basate sulle architetture Ada Lovelace e Hopper, secondo le informazioni trapelate.
Le GPU HGX H20, L20 PCle e L2 PCle in questione per l'IA e l'HPC sono già dirette ai produttori di server cinesi, sostiene il rapporto. Nel frattempo, HKEPC ha pubblicato una slide che afferma che la nuova HGX H20 con 96 GB di memoria HBM3 è basata sull'architettura Hopper e utilizza un silicio H100 di punta gravemente compromesso o un nuovo design di GPU Hopper-based per l'IA e l'HPC. Poiché si tratta di un'informazione non ufficiale, prendila con le pinze.
Per quanto riguarda le prestazioni, l'HGX H20 offre 1 FP64 TFLOPS per l'HPC (rispetto ai 34 TFLOPS sull'H100) e 148 FP16/BF16 TFLOPS (rispetto ai 1.979 TFLOPS sull'H100). Va notato che la GPU di calcolo di punta di Nvidia è troppo costosa per essere ridotta e venduta scontata, ma Nvidia potrebbe non avere scelta in questo momento. L'azienda ha già una GPU AI e HPC di fascia bassa A30 con 24 GB di memoria HBM2 basata sull'architettura Ampere ed è più economica della A100. In effetti, la A30 è più veloce dell'HGX H20 sia nei formati FP64 che FP16/BF16.
Per quanto riguarda le GPU AI e HPC L20 e L2 PCIe, sembra che siano basate sulle GPU AD102 e AD104 ridotte di Nvidia e affronteranno gli stessi mercati dei prodotti L40 e L40S.
Negli ultimi due anni, gli Stati Uniti hanno imposto severe restrizioni sulle esportazioni di hardware ad alte prestazioni verso la Cina. Le restrizioni statunitensi per il settore dei supercomputer cinesi imposte nell'ottobre 2022 sono incentrate sulla prevenzione delle entità cinesi che costruiscono supercomputer con una potenza di calcolo superiore a 100 FP64 PetaFLOPS entro 41.600 piedi cubi (1.178 metri cubi). Per rispettare le regole di esportazione degli Stati Uniti, Nvidia ha dovuto ridurre la connettività tra le GPU e le prestazioni di elaborazione delle GPU per le sue GPU A800 e H800.
Le limitazioni imposte nel novembre 2023 richiedono licenze di esportazione su tutto l'hardware che raggiunge una determinata potenza di elaborazione totale e/o densità di prestazioni, indipendentemente dal fatto che la parte possa connettersi efficientemente ad altri processori (usando NVLink nel caso di Nvidia) o meno. Di conseguenza, Nvidia non può più vendere A100, A800, H100, H800, L40, L40S e GeForce RTX 4090 alle entità cinesi senza una licenza di esportazione dal governo degli Stati Uniti. Per rispettare le nuove regole, le GPU HGX H20, L20 PCle e L2 PCle per l'IA e il calcolo HPC non solo verranno fornite con una connettività NVLink ridotta, ma anche con prestazioni ridotte.
È interessante notare che di recente Nvidia ha lanciato le sue GPU A800 e H800 per l'IA e l'HPC negli Stati Uniti, puntando formalmente a implementazioni di IA su piccola scala per le imprese e a workstation. Tenendo presente che l'azienda non può più vendere queste unità a società in Cina, Arabia Saudita, Emirati Arabi Uniti e Vietnam, questa è un'ottima soluzione per sbarazzarsi delle scorte che difficilmente saranno interessanti per i grandi fornitori di servizi cloud negli Stati Uniti e in Europa.