Apple permetterà presto di controllare iPhone e iPad con lo sguardo
I nuovi aggiornamenti di Apple consentiranno agli utenti di controllare i propri dispositivi con il movimento degli occhi
Apple permetterà presto agli utenti di controllare iPhone e iPad con lo sguardo, prendendo spunto da Mac e Vision Pro. Oltre al focus su parola e udito, verranno introdotte nuove funzionalità di accessibilità, come il controllo tramite movimento degli occhi e la vibrazione della musica. Saranno disponibili anche azioni Dwell per il dispositivo Vision Pro e nuove funzionalità per utenti con difficoltà nel parlare. Apple si impegna a rendere i propri dispositivi più inclusivi e funzionali per tutti.
Apple introduce nuove funzionalità di accessibilità
Apple ha annunciato una serie di nuove funzionalità di accessibilità che arriveranno più avanti quest'anno per i proprietari di iPhone e iPad. Tra queste, la possibilità di interagire con le interfacce di iOS e iPadOS utilizzando il movimento degli occhi, una funzionalità simile a quella presente sui dispositivi Mac.
La società chiama questa funzionalità Eye Tracking ed è basata sulle fondamenta del Dwell Control. Finora, il Dwell Control è stato disponibile come parte della Tastiera di Accessibilità su macOS, consentendo agli utenti di eseguire azioni del mouse utilizzando gesti degli occhi e della testa.
Eye Tracking su iPhone e iPad
Sull'iPhone e sull'iPad, Eye Tracking richiederà solo alcuni secondi per calibrarsi e funzionerà utilizzando la fotocamera frontale. Una volta abilitato, consentirà agli utenti con disabilità fisiche di eseguire swipe e gesture sui pulsanti con i movimenti oculari.
Le azioni Dwell sono disponibili anche per il visore Vision Pro. Sull'apparecchio XR, sono incluse come parte del sistema Assistive Touch nelle impostazioni di accessibilità. Su Mac, i gesti degli occhi e della testa consentono di fare clic con il mouse, trascinare e rilasciare e altri gesti di controllo dell'interfaccia utente.
Novità per utenti con problemi uditivi e del linguaggio
Per gli utenti con sfide uditive, Apple sta aggiungendo una funzionalità sugli iPhone chiamata Music Haptics. Una volta attivata, il motore Taptic all'interno di un iPhone produrrà vibrazioni in sincronia con la riproduzione musicale utilizzando una combinazione di tocchi ritmici, vibrazioni morbide e texture.
Questa funzionalità è già stata certificata per milioni di brani nella libreria di Apple Music. Gli sviluppatori possono anche sfruttare le interfacce di programmazione delle applicazioni (API) per abilitare un feedback di accessibilità basato sulla vibrazione per rendere le loro app più inclusive e funzionalmente gratificanti per le persone con problemi uditivi.
Altre nuove funzionalità in arrivo
Apple sta aggiungendo un paio di nuove funzionalità ai suoi telefoni e tablet per le persone con difficoltà legate al linguaggio. La prima è Atypical Speech, che si basa sull'apprendimento automatico per identificare la firma vocale unica di una persona in modo da poterli aiutare a eseguire compiti utilizzando comandi vocali.
La seconda è Vocal Shortcuts, che consente agli utenti di registrare segnali audio personalizzati e assegnarli come scorciatoie per vari compiti sul dispositivo, che possono essere di passaggi singoli o multipli. Apple afferma che queste funzionalità sono state 'progettate per gli utenti con condizioni acquisite o progressive che influenzano il linguaggio, come la paralisi cerebrale, la sclerosi laterale amiotrofica (ALS) o l'ictus'.
Un'altra funzionalità correlata in arrivo è Personal Voice. Le persone che trovano difficile dire o leggere frasi lunghe possono creare una Voce Personale utilizzando frasi più brevi.
Apple ha inoltre sviluppato una funzionalità di benessere che tiene conto del mal d'auto per le circostanze in veicolo. La funzionalità in questione si chiama Vehicle Motion Cues e una volta attivata, mostrerà punti animati sullo schermo che sono allineati dinamicamente con il movimento direzionale di un veicolo. L'idea è ridurre il conflitto sensoriale, rendendo più facile per gli utenti leggere i contenuti sullo schermo.