Un insider di Apple ha appena rivelato come funzioneranno le funzionalità di intelligenza artificiale di iOS 18
Apple sta cercando di emulare la stessa formula che Google ha adottato per mettere Gemini AI sui telefoni Pixel. Ma l'approccio di Apple potrebbe essere più pratico.
Apple sta cercando di emulare la stessa formula che Google ha utilizzato per portare Gemini AI sui telefoni Pixel. Tuttavia, l'approccio di Apple potrebbe essere più pratico. Con iOS 18, Apple sembra puntare su un modello di linguaggio su dispositivo per le sue funzionalità AI generative, differenziandosi dai rivali che utilizzano il cloud. Mentre altri marchi si concentrano sulle novità legate all'AI, Apple sembra voler dimostrare come questa tecnologia possa aiutare le persone nella vita quotidiana, anziché solo promuovere chatbot e altre funzionalità generative.
Un'anteprima dell'AI di Apple per iOS 18
All'avvicinarsi della Conferenza Mondiale degli Sviluppatori di Apple (WWDC), le voci sul lavoro di AI dell'azienda hanno preso una svolta febbrile. In un anno in cui marchi di smartphone e informatica si sono concentrati esclusivamente sulle bellezze dell'AI, Apple è stata insolitamente silenziosa attorno all'hype dell'AI - suscitando preoccupazione sul marchio che potrebbe perdere il treno.
Tuttavia, un nuovo rapporto ci ha dato un'occhiata più ravvicinata su come i sogni di AI di Apple potrebbero realizzarsi con l'aggiornamento iOS 18 previsto per quest'anno. Sembra che Apple sia molto presente nel gioco, ma con un approccio leggermente diverso rispetto ai suoi rivali. 'Apple ha sviluppato un grande modello di linguaggio - l'algoritmo che sottende le funzionalità di AI generativo - e tutte le indicazioni suggeriscono che sarà interamente on-device. Ciò significa che la tecnologia è alimentata dal processore all'interno dell'iPhone, piuttosto che nel cloud,' riferisce Bloomberg.
Rumors di uno strumento interno chiamato 'AppleGPT' circolano da un po'. Ma sembra che Apple non abbia ancora raggiunto il livello di finezza che i colossi come Google e Microsoft (con OpenAI) hanno raggiunto con strumenti come ChatGPT, Copilot e Gemini. Questo spiega anche i recenti rapporti che sostengono che Apple potrebbe concedere in licenza Gemini AI da Google - proprio come Samsung e OnePlus - per gli iPhone anziché offrire un prodotto che non spicca particolarmente.
O, per essere più precisi, che non soddisfa gli standard di Apple. Gli strumenti di AI generativo, anche quelli costruiti sui più grandi set di dati disponibili, continuano a fallire in modo piuttosto spettacolare, almeno nei loro primi giorni. Google ha recentemente dovuto scusarsi per un grave errore con il sistema di testo-immagine di Gemini AI. Anche l'AI di Meta non è troppo indietro. Poi c'è l'intera tempesta che si sta scatenando sulle leggi sul copyright, la divulgazione equa e la trasparenza nella formazione, che è qualcosa che Apple vorrebbe evitare.
Ma sembra che invece di vendere l'olio di serpente proverbiale dell'AI, Apple voglia adottare un approccio più cauto. 'Piuttosto che vantare la potenza dei chatbot e di altri strumenti di AI generativo, Apple intende mostrare come la tecnologia possa aiutare le persone nella loro vita quotidiana,' aggiunge il rapporto di Bloomberg.
Da quando è arrivato ChatGPT sulla scena e ha dato il via a una rivoluzione dell'AI, abbiamo assistito a un diluvio di strumenti di AI capaci di tutto, dalla generazione di immagini realistiche e clonazione di voci alla creazione di video fotorealistici da testo e all'interazione in chat piccanti come partner virtuali. Eppure, la domanda più grande è quanto siano realmente gratificanti questi trucchi vistosi per un consumatore medio nella vita di tutti i giorni.
Ma ciò non significa che Apple non stia cercando di distinguersi nella corsa all'AI. Anzi, in realtà. Negli ultimi mesi, Apple ha pubblicato diversi articoli di ricerca che documentano uno strumento di AI chiamato MGIE capace di trucchi come l'editing multimediale con comandi vocali. Un altro dettaglia MM1, un modello di linguaggio multimodale di grandi dimensioni che apre le porte a 'un apprendimento migliorato in contesto e al ragionamento multi-immagine.'
Abbiamo recentemente analizzato un altro studio di Apple che si concentra sull'AI nel rendere sensato il contenuto dello schermo e nell'assistere gli utenti di conseguenza. Il seguente thread di un ingegnere di Apple su X, precedentemente noto come Twitter, dettaglia i progressi fatti da Apple rispetto ai rivali come il modello di AI Gemini di Google.
Altri articoli hanno discusso di AI nel contesto della privacy e della sicurezza, il che non sorprende per Apple. L'approccio on-device menzionato sopra è centrale a tutto questo approccio alla privacy. Eseguire modelli di AI on-device garantirebbe che nessun dato lasci l'iPhone. Ciò contrasta con l'invio delle richieste degli utenti a un server cloud, una strategia che rallenta anche l'intera catena di interazione tra umani e AI.
Inoltre, Apple ha già pronto l'hardware principale. L'azienda ha iniziato a spedire un'unità di elaborazione neurale (NPU) negli iPhone dal 2017. Si tratta di un hardware acceleratore di AI dedicato, che funziona allo stesso modo dell'Unità di Elaborazione Tensoriale (TPU) all'interno dei telefoni Pixel di Google che ora sono in grado di eseguire il modello di Gemini on-device. Curiosamente, Apple ha anche iniziato a gettare le basi un po' di tempo fa.
Alla WWDC 2022, l'azienda ha rilasciato quello che chiama 'un'implementazione di riferimento open-source in PyTorch dell'architettura Transformer.' I transformer sono lo strumento fondamentale dietro tutta la tecnologia di AI generativa. Questo articolo del Financial Times è una spiegazione eccellente (e comprensibile) della tecnologia dei transformer che è nata da un articolo di