Phison rivoluziona l'AI su PC consumer con aiDAPTIV+
Nuova tecnologia permette ai PC di gestire modelli di AI fino a 10 volte più velocemente, anche con GPU integrate.
Al CES 2026, Phison ha presentato una nuova combinazione di software e hardware, chiamata aiDAPTIV+, che permette ai PC consumer di eseguire inferenze di AI fino a dieci volte più velocemente. Questa tecnologia trasforma la memoria NAND in un livello di memoria gestita accanto alla DRAM, consentendo di addestrare o eseguire modelli di AI su sistemi con memoria limitata.
La tecnologia si distingue per la capacità di scrivere su flash i token che non trovano spazio nella cache della GPU, riducendo le esigenze di memoria e aumentando il tempo di risposta iniziale. Consentendo ai PC equipaggiati con GPU di fascia bassa o integrate di gestire modelli molto più grandi, aiDAPTIV+ rende l'inferenza di grandi modelli accessibile a sviluppatori e piccole imprese senza grandi investimenti in AI.
Phison ha collaborato con aziende come Acer, Asus, Corsair e MSI per testare aiDAPTIV+, e i risultati sono promettenti. Ad esempio, un modello gpt-oss-120b è stato eseguito su un laptop Acer con solo 32GB di memoria. Secondo Phison, la tecnologia è particolarmente efficace per modelli Mixture of Experts e carichi di lavoro agentici di AI, permettendo di gestire un modello MoE di 120 miliardi di parametri con soli 32 GB di DRAM.
La facilità di implementazione di aiDAPTIV+ grazie a un SSD consapevole dell'AI e a firmware avanzato, rende la tecnologia appetibile per i produttori di PC e aziende interessate a utilizzare questa capacità nei loro modelli premium per sviluppatori e utenti avanzati.
Cos'è aiDAPTIV+ e come migliora l'inferenza dell'AI sui PC consumer?
aiDAPTIV+ è una combinazione di software e hardware sviluppata da Phison che utilizza la memoria NAND come livello di memoria gestita accanto alla DRAM. Questo approccio consente ai PC consumer di eseguire inferenze di AI fino a dieci volte più velocemente, anche su sistemi con memoria limitata.
In che modo aiDAPTIV+ consente l'esecuzione di modelli di AI di grandi dimensioni su PC con GPU integrate?
aiDAPTIV+ scrive su memoria flash i token che non trovano spazio nella cache della GPU, riducendo le esigenze di memoria e migliorando il tempo di risposta iniziale. Questo permette ai PC con GPU integrate o di fascia bassa di gestire modelli di AI molto più grandi senza necessità di hardware costoso.
Quali aziende hanno collaborato con Phison per testare aiDAPTIV+ e quali sono stati i risultati?
Phison ha collaborato con aziende come Acer, Asus, Corsair e MSI per testare aiDAPTIV+. Ad esempio, un modello gpt-oss-120b è stato eseguito su un laptop Acer con solo 32GB di memoria, dimostrando l'efficacia di aiDAPTIV+ nel gestire modelli di grandi dimensioni su hardware consumer.
Quali sono i vantaggi dell'utilizzo di aiDAPTIV+ per le piccole imprese e gli sviluppatori?
aiDAPTIV+ rende l'inferenza di grandi modelli di AI accessibile a sviluppatori e piccole imprese senza richiedere grandi investimenti in hardware AI costoso, permettendo loro di sfruttare modelli avanzati su hardware esistente.
Come si integra aiDAPTIV+ con le GPU esistenti nei PC?
aiDAPTIV+ si integra con le GPU esistenti utilizzando un SSD consapevole dell'AI e firmware avanzato, trasformando la memoria NAND in un livello di memoria gestita che lavora accanto alla DRAM per migliorare le prestazioni dell'AI.
Quali sono le implicazioni di aiDAPTIV+ per il futuro dell'AI su dispositivi consumer?
aiDAPTIV+ potrebbe democratizzare l'accesso all'AI avanzata su dispositivi consumer, permettendo l'esecuzione di modelli complessi su hardware standard e aprendo nuove possibilità per applicazioni AI personalizzate e locali.