Elon Musk pianifica di costruire la 'Gigafactory of Compute' entro l'autunno 2025 - utilizzando 100.000 GPU Nvidia H100
I piani non potevano aspettare le GPU H200 o Blackwell.
Elon Musk's xAI plans to build a massive supercomputer by fall 2025 using 100,000 Nvidia's H100 GPUs. The project, referred to as the Gigafactory of Compute, aims to enhance xAI's AI chatbot, Grok, and surpass rival GPU clusters in size and capability. Despite using previous-generation technology, Musk is personally committed to delivering the supercomputer on time to support the development of large language models. The collaboration with Oracle and strategic partnerships underline xAI's ambition to compete with AI giants like OpenAI and Google in the AI space.
xAI, la startup di AI di Elon Musk, ha in programma di costruire un enorme supercomputer per potenziare il suo chatbot di AI, Grok, secondo quanto riportato da Reuters citando The Information.
Il supercomputer, che Elon Musk definisce la Gigafactory of Compute, dovrebbe essere pronto entro l'autunno 2025 e potrebbe coinvolgere una collaborazione con Oracle. Con questo sviluppo, Musk punta a superare significativamente i cluster di GPU concorrenti sia in termini di dimensioni che di capacità.
In una presentazione per gli investitori, Elon Musk ha rivelato che il nuovo supercomputer utilizzerà fino a 100.000 GPU Nvidia H100 basate sull'architettura Hopper, rendendolo almeno quattro volte più grande dei più grandi cluster di GPU esistenti, secondo The Information.
Le GPU Nvidia H100 sono molto ricercate nel mercato dei chip per i data center di AI, anche se la forte domanda le ha rese difficili da ottenere l'anno scorso. Tuttavia, queste non sono più le GPU di punta di Nvidia che erano una volta, con l'azienda verde pronta a spedire le sue GPU di calcolo H200 per applicazioni di AI e HPC e a prepararsi a spedire le sue GPU basate su Blackwell B100 e B200 nella seconda metà dell'anno.
Non è chiaro perché xAI abbia deciso di utilizzare essenzialmente una tecnologia di generazioni precedenti per il suo supercomputer del 2025, ma questo sostanziale investimento hardware deve riflettere l'entità delle ambizioni di xAI. Tenendo presente che stiamo trattando un rapporto non ufficiale e che i piani potrebbero cambiare, Musk si è dichiarato 'personalmente responsabile di consegnare il supercomputer in tempo', poiché il progetto è molto importante per lo sviluppo di grandi modelli di linguaggio.
xAI cerca di competere direttamente con giganti dell'AI come OpenAI e Google. Musk, che ha anche cofondato OpenAI, posiziona xAI come un formidabile sfidante nello spazio dell'AI, motivo per cui ha bisogno del prossimo supercomputer. Il modello Grok 2 richiedeva circa 20.000 GPU Nvidia H100 per l'addestramento, e le future iterazioni, come Grok 3, ne richiederanno fino a 100.000, secondo Musk.
Né xAI né Oracle hanno fornito commenti sulla collaborazione quando sono stati contattati. Per ovvi motivi, questo silenzio lascia alcuni aspetti della partnership e del progetto del supercomputer aperti a speculazioni. Tuttavia, la presentazione di Musk agli investitori sottolinea il suo impegno nel spingere i confini della tecnologia dell'AI attraverso consistenti investimenti infrastrutturali e partnership strategiche.