GPU AI Moore Threads realizzate in Cina utilizzate per l'addestramento di un modello LLM con tre miliardi di parametri - MTT S4000 si dimostra competitiva contro soluzioni Nvidia non specificate
La Cina dichiara di avvicinarsi alle prestazioni dell'AI occidentale
Moore Threads, azienda cinese, afferma di aver realizzato progressi significativi nello sviluppo delle sue GPU per intelligenza artificiale. Il nuovo acceleratore AI S4000 è più veloce del predecessore e si è classificato terzo nei test AI, superando le controparti Nvidia. Anche se i dettagli sono limitati, sembra che le GPU Moore Threads siano competitive con le soluzioni Nvidia precedenti. Questo successo potrebbe rappresentare un passo importante nel piano cinese per le GPU domestiche, anche se resta da vedere se Moore Threads riuscirà a migliorare le prestazioni delle sue schede grafiche per il gaming.
Progressi nell'AI GPU di Moore Threads
Moore Threads sostiene di fare grandi progressi nello sviluppo delle sue GPU per l'AI, con il suo ultimo acceleratore AI S4000 che risulta essere esponenzialmente più veloce del suo predecessore. Secondo quanto riportato da cnBeta, un regime di addestramento di un nuovo cluster di calcolo intelligente Kua'e Qianka equipaggiato con GPU S4000 si è classificato al terzo posto nei test di intelligenza artificiale, superando diversi cluster di GPU per l'AI di Nvidia.
Il benchmark è stato eseguito durante un test di stabilità del cluster di calcolo intelligente Kua'e Qianka. L'addestramento ha richiesto un totale di 13,2 giorni e si è svolto perfettamente senza errori o interruzioni per tutta la durata del test. Il modello AI utilizzato per il benchmark del nuovo cluster di calcolo è il modello di grande linguaggio MT-infini-3B.
Competitività delle GPU AI MTT S4000
Il nuovo cluster di computer si posiziona tra i migliori cluster di GPU per l'AI della stessa scala (utilizzando lo stesso numero di GPU, presumibilmente). Tuttavia, la tabella sopra è decisamente carente di dettagli. Il cluster MTT S4000 è stato confrontato con GPU Nvidia non specificate, ad esempio - non sappiamo se si tratti di GPU A100, H100 o H200, ma sospettiamo che A100 sia la più probabile. Anche i carichi di lavoro non sono gli stessi. Addestrare MT-infini-3B potrebbe essere molto diverso dall'addestrare Llama3-3B, ad esempio. Insomma, prendere tutto con le pinze.
Anche se non si tratta di un confronto diretto, addestrare LLM sulle GPU Moore Threads rappresenta un passo importante nella roadmap delle GPU domestiche cinesi. Il cluster di calcolo Kua'e Qianka suggerisce almeno che le GPU AI MTT S4000 siano competitive con l'architettura A100 della generazione precedente di Nvidia. Questo è supportato dai numeri di prestazioni grezze del S4000, che non solo superano significativamente i predecessori delle GPU AI Moore Threads S3000 e S2000, ma superano anche gli acceleratori AI basati su Turing di Nvidia. Il S4000 non raggiunge gli acceleratori AI A100 di Nvidia, ma forse non è lontano dai livelli di prestazioni di Ampere.
Prospettive future
Per Moore Threads, la capacità di prestazioni del Kua'e Qianka è una grande vittoria, indipendentemente dalle GPU Nvidia o LLM testate. Dimostra che Moore Threads è ora in grado di costruire GPU AI in grado di svolgere lavori simili ai concorrenti per l'AI di Nvidia, AMD e Intel. Potrebbe non essere più performante, ma è un importante passo avanti sulla strada verso supercomputer e cluster AI più veloci e capaci.
È un risultato impressionante per un produttore di GPU fondato meno di cinque anni fa. Se Moore Threads riuscirà a continuare a offrire significativi miglioramenti generazionali delle prestazioni, potrebbe avere un acceleratore GPU AI in grado di competere con i suoi omologhi occidentali nei prossimi anni. Questo è ovviamente un grande 'se', e sappiamo per esperienza storica che lo sviluppo delle GPU non sempre procede come previsto.
Sarà interessante vedere se Moore Threads riuscirà a trasferire le sue buone capacità di prestazioni AI anche nelle sue schede grafiche da gioco. Finora, le GPU MTT hanno sofferto molto nei test di gioco, grazie in parte a driver/ottimizzazioni non mature. Anche se l'AI ha bisogno di molta potenza computazionale, è diverso dalla grafica al computer in tempo reale, quindi l'esperienza in un'area non implica necessariamente capacità simili nell'altra.