DeepL riduce il tempo di traduzione di internet a 18 giorni con Nvidia DGX SuperPOD
La piattaforma di AI linguistica di DeepL cresce con l'uso di Nvidia DGX SuperPOD, rendendo più veloce la traduzione di grandi volumi di dati.
DeepL, un servizio di traduzione basato su intelligenza artificiale, ha annunciato di poter tradurre l'intero internet in appena 18,5 giorni, riducendo il tempo di elaborazione del 90% rispetto al record precedente di 194 giorni. Questo traguardo è stato reso possibile grazie all'implementazione del Nvidia DGX SuperPOD con DGX GB200, situato presso EcoDataCenter in Svezia.
Il CEO di DeepL, Jarek Kutylowski, ha affermato che l'integrazione di tecnologie all'avanguardia consente alla piattaforma di mantenere una posizione di leadership nel settore della Language AI e di esplorare nuovi prodotti. Questa svolta non solo migliora l'offerta esistente, ma apre anche la strada a ulteriori innovazioni.
Le capacità del sistema includono la traduzione dell'intero Oxford English Dictionary in due secondi e l'elaborazione di Alla ricerca del tempo perduto di Marcel Proust in meno di 0,09 secondi. Queste prestazioni straordinarie permettono a DeepL di affinare la precisione e la personalizzazione delle sue traduzioni.
È la prima volta che il DGX SuperPOD viene utilizzato in Europa, facilitando l'accesso delle aziende europee a queste tecnologie avanzate e aiutandole a rispettare le rigorose normative sulla privacy dei dati, come il GDPR e l'EU AI Act.
Cosa ha permesso a DeepL di ridurre il tempo necessario per tradurre l'intero internet da 194 a 18,5 giorni?
DeepL ha implementato il supercomputer NVIDIA DGX SuperPOD con sistemi DGX GB200, che offre una potenza di calcolo significativamente superiore, consentendo di accelerare il processo di traduzione e ridurre drasticamente i tempi di elaborazione.
Quali sono le caratteristiche principali del NVIDIA DGX SuperPOD con sistemi DGX GB200?
Il NVIDIA DGX SuperPOD con sistemi DGX GB200 è un'infrastruttura IA scalabile con raffreddamento a liquido, progettata per il training e l'inferenza di modelli di IA generativa con miliardi di parametri. Può scalare fino a migliaia di superchip NVIDIA GB200 Grace Blackwell, garantendo prestazioni elevate e tempi di attività costanti.
In che modo l'adozione del DGX SuperPOD influenzerà i servizi di traduzione di DeepL?
L'adozione del DGX SuperPOD permetterà a DeepL di affinare la precisione e la personalizzazione delle sue traduzioni, migliorando l'offerta esistente e aprendo la strada a ulteriori innovazioni nel campo della traduzione automatica.
Quali sono i vantaggi dell'utilizzo di supercomputer come il DGX SuperPOD per le applicazioni di IA generativa?
I supercomputer come il DGX SuperPOD offrono la potenza di calcolo necessaria per addestrare e implementare modelli di IA generativa su larga scala, consentendo prestazioni elevate, scalabilità e tempi di attività costanti, fondamentali per applicazioni mission-critical.
Come si confronta il DGX SuperPOD con altre infrastrutture di calcolo per l'IA?
Il DGX SuperPOD si distingue per la sua capacità di scalare fino a decine di migliaia di GPU, il design raffreddato a liquido e l'integrazione con l'intero stack software AI di NVIDIA, offrendo affidabilità e scalabilità senza pari rispetto ad altre infrastrutture di calcolo per l'IA.
Quali sono le implicazioni dell'adozione di tecnologie avanzate come il DGX SuperPOD per le aziende europee?
L'adozione di tecnologie avanzate come il DGX SuperPOD consente alle aziende europee di accedere a infrastrutture IA di alto livello, facilitando lo sviluppo di applicazioni IA avanzate e aiutandole a rispettare le rigorose normative sulla privacy dei dati, come il GDPR e l'EU AI Act.