AMD annuncia l'acceleratore AI MI325X, svela i piani MI350 e MI400 al Computex
Più acceleratori, più AI.
AMD annuncia l'acceleratore AI MI325X e rivela i piani MI350 e MI400 al Computex. La roadmap aggiornata di AMD prevede un rilascio annuale di nuovi prodotti per aumentare le prestazioni di AI e HPC. I nuovi acceleratori offriranno maggiore memoria e larghezza di banda, con promesse di prestazioni superiori rispetto ai concorrenti. I partner come Microsoft Azure, Meta, Dell Technologies, HPE e Lenovo stanno adottando i prodotti AMD Instinct per i loro servizi e server.
AMD ha dato il via al Computex con alcune importanti novità: i nuovi acceleratori Instinct MI325X, che saranno disponibili nel quarto trimestre del 2024; i prossimi Instinct MI350-series basati sull'architettura CDNA4 che verranno lanciati l'anno prossimo; e i nuovi prodotti Instinct MI400-series basati su CDNA 'Next' previsti per il 2026.
La novità più significativa è che la roadmap aggiornata di AMD impegna a un programma di rilascio annuale, garantendo continui aumenti delle prestazioni di AI e HPC con set di istruzioni migliorati e capacità e larghezza di banda della memoria più elevate.
Il AMD Instinct MI325X, in uscita nel Q4 2024, avrà fino a 288GB di memoria HBM3E con 6 TB/s di larghezza di banda della memoria. Secondo AMD, il MI325X offrirà prestazioni di inferenza e generazione di token migliori del 1,3x rispetto al Nvidia H100. Bisogna ricordare che il AMD Instinct MI325X si troverà a competere contro gli acceleratori Nvidia H200 o addirittura B100/B200.
Successivamente, la serie MI350, basata sull'architettura AMD CDNA 4, è prevista per il 2025. Questa serie promette un aumento di 35 volte delle prestazioni di inferenza di AI rispetto alla serie attuale MI300. La serie Instinct MI350 utilizzerà una tecnologia di processo di classe 3nm e supporterà nuovi formati di dati - FP4 e FP6 - e istruzioni per potenziare le prestazioni e l'efficienza di AI.
Il software stack AMD ROCm 6 gioca un ruolo cruciale nel massimizzare le prestazioni degli acceleratori MI300X, ha dichiarato AMD. I benchmark dell'azienda hanno mostrato che i sistemi che utilizzano otto acceleratori MI300X hanno superato il Nvidia H100 di 1,3 volte nell'inferenza del modello Meta Llama-3 70B e nella generazione di token. Anche i singoli acceleratori MI300X hanno dimostrato prestazioni superiori nei compiti del modello Mistral-7B, battendo il concorrente di 1,2 volte, basato sui test di AMD.
Anche l'adozione dei prodotti Instinct MI200 e MI300-series di AMD da parte dei fornitori di servizi cloud e degli integratori di sistemi sta accelerando. Microsoft Azure utilizza questi acceleratori per i servizi di OpenAI, Dell Technologies li integra nelle macchine enterprise AI PowerEdge, e Lenovo e HPE li utilizzano per i loro server.
'Gli acceleratori AMD Instinct MI300X continuano ad essere ampiamente adottati da numerosi partner e clienti, tra cui Microsoft Azure, Meta, Dell Technologies, HPE, Lenovo e altri, un risultato diretto delle eccezionali prestazioni e proposta di valore dell'acceleratore AMD Instinct MI300X,' ha dichiarato Brad McCredie, vice presidente aziendale, Data Center Accelerated Compute, AMD. 'Con il nostro ritmo di innovazione costante, forniamo le capacità di leadership e le prestazioni nell'industria dell'AI, e i nostri clienti si aspettano di guidare la prossima evoluzione dell'addestramento e dell'inferenza dell'AI nei data center.'