Apple ha annunciato che entro la fine dell’anno saranno disponibili nuove funzioni di accessibilità, fra cui “Eye Tracking”, che permette a utenti con disabilità fisiche di controllare l’iPad o l’iPhone usando soltanto gli occhi; “Music Haptics”, che permette a persone sorde o ipoudenti di “sentire” la musica usando il “Taptic Engine” sull’iPhone; “Vocal Shortcuts”, che consente all’utente di eseguire attività riproducendo un suono personalizzato; “Vehicle Motion Cues”, che riduce il malessere che si può provare quando si usa l’iPhone o l’iPad all’interno di un veicolo in movimento; ulteriori funzioni di accessibilità saranno inoltre fruibili con visionOS.
Apple, la multinazionale statunitense che produce dispositivi tecnologici e multimediali, ha annunciato che entro la fine dell’anno saranno disponibili nuove funzioni di accessibilità, fra cui Eye Tracking, che permette a utenti con disabilità fisiche di controllare l’iPad o l’iPhone usando soltanto gli occhi; Music Haptics, che permette a persone sorde o ipoudenti di “sentire” la musica usando il Taptic Engine sull’iPhone; Vocal Shortcuts, che consente all’utente di eseguire attività riproducendo un suono personalizzato; Vehicle Motion Cues, che riduce il malessere che si può provare quando si usa l’iPhone o l’iPad all’interno di un veicolo in movimento; ulteriori funzioni di accessibilità saranno inoltre fruibili con visionOS. Queste funzioni, spiega l’azienda, combinano la potenza dell’hardware e del software Apple, sfruttando il chip Apple, l’intelligenza artificiale e il machine learning on-device (sistemi di apprendimento automatico che migliorano le performance sulla base dei dati che utilizzano) per aiutare Apple in una missione che ormai porta avanti da molti anni: progettare prodotti realmente alla portata di tutti e tutte.
Vediamo più nel dettaglio le nuove funzioni in arrivo.
La funzione Eye Tracking, basata sull’intelligenza artificiale, sarà inclusa di serie e permetterà di controllare l’iPad e l’iPhone usando soltanto gli occhi. Essa è stata sviluppata pensando a chi ha una disabilità fisica, e usa la fotocamera frontale per completare in pochi secondi la configurazione e la calibrazione. Inoltre, grazie al machine learning on-device, tutti i dati utilizzati per configurare e controllare questa funzione restano al sicuro sul dispositivo e non vengono condivisi con Apple. Eye Tracking è compatibile con le app iPadOS e iOS, e non richiede hardware o accessori extra. Grazie a Eye Tracking l’utente può spostarsi fra gli elementi di un’app e usare la funzione “controllo con ritardo” per attivare ciascun elemento, accedere a funzioni aggiuntive come pulsanti fisici, usare lo scorrimento o fare altre azioni, il tutto soltanto con gli occhi.
Con Music Haptics la musica diventa più accessibile, infatti questa funzione permette alle persone sorde o ipoudenti di “sentire” la musica su iPhone in un modo completamente inedito. Quando questa funzione è attivata, il Taptic Engine dell’iPhone riproduce i tocchi, le trame sonore e le vibrazioni sottili dei brani. La funzione è compatibile con milioni di brani del catalogo Apple Music e sarà disponibile come API, in modo che anche gli sviluppatori abbiano la possibilità di rendere la musica più accessibile nelle proprie app.
Diverse nuove funzioni sono state sviluppate tenendo in considerazione una vasta tipologia di voci. La funzione Vocal Shortcuts, ad esempio, permette a chi usa l’iPhone e l’iPad di assegnare ai comandi espressioni personalizzate, che Siri è in grado di comprendere, per attivare scorciatoie e completare attività complesse. Un’altra novità è la funzione Listen for Atypical Speech, che offre all’utente la possibilità di migliorare il riconoscimento vocale per un più ampio range di voci, avvalendosi dei sistemi di apprendimento automatico per riconoscere i differenti modelli vocali. Queste funzioni sono state sviluppate pensando alle persone con disabilità acquisite o progressive che compromettono la capacità di parlare, come la paralisi cerebrale, la sclerosi laterale amiotrofica (SLA) o l’ictus. Esse offrono un nuovo livello di personalizzazione e controllo a partire dalle funzioni già introdotte con iOS 17 per utenti che non parlano o rischiano di perdere la capacità di parlare.
Veniamo ora a Vehicle Motion Cues, una nuova funzionalità sviluppata per l’iPhone e l’iPad che può contribuire a ridurre la sensazione di malessere causata dal movimento del veicolo con cui si viaggia, un disturbo noto anche come chinetosi (esempi di questo disturbo sono il mal d’auto, il mal di mare, ecc.). Alcuni studi dimostrano che questo disturbo è in genere causato da un conflitto sensoriale fra ciò che si vede e la sensazione che si prova, una sensazione che può impedire ad alcune persone di usare iPhone o iPad mentre viaggiano a bordo di un veicolo. Quando si attiva la modalità Vehicle Motion Cues, compaiono dei punti animati ai bordi dello schermo che riproducono le variazioni di movimento del veicolo, in modo da ridurre il conflitto sensoriale senza interferire con il contenuto principale. Grazie ai sensori integrati in iPhone e iPad, Vehicle Motion Cues rileva quando l’utente si trova all’interno di un veicolo in movimento e reagisce di conseguenza. È possibile impostare questa funzione in modo che si attivi in automatico, oppure abilitarla o disabilitarla manualmente attraverso il Centro di Controllo.
Anche CarPlay (il software che permette di gestire alcune funzioni dell’iPhone sul display dell’automobile) sarà implementato con nuove funzioni di accessibilità, fra cui il controllo vocale, che permette di usare CarPlay e di gestire le app usando soltanto la voce; il riconoscimento suoni, che permette alle persone sorde o ipoudenti che guidano o viaggiano in auto di attivare le notifiche per suoni come clacson e sirene; i filtri del colore, che aiutano le persone daltoniche a visualizzare meglio l’interfaccia di CarPlay; sono infine disponibili anche altre funzioni assistive per la vista come il testo in grassetto e testo grande.
Nuove funzioni di accessibilità sono in arrivo anche su visionOS, tra queste ci sarà la Trascrizione live, che sarà disponibile a livello di sistema e aiuterà qualsiasi utente, comprese le persone sorde o ipoudenti, a seguire una conversazione dal vivo o i contenuti audio delle app. Grazie alla possibilità di usare Trascrizione live con FaceTime in visionOS, ancora più persone potranno comunicare e collaborare usando il proprio avatar. Su Apple Vision Pro sarà possibile spostare i sottotitoli usando la barra della finestra durante gli Apple Immersive Video, e verrà aggiunto il supporto per gli apparecchi acustici Made for iPhone e i processori acustici degli impianti cocleari. Per migliorare l’esperienza di chi ha difficoltà visive o preferisce evitare luci troppo accese e lampeggiamenti, verranno aggiunte le funzioni di accessibilità Riduci trasparenza, Inversione intelligente e Attenua luci lampeggianti.
Queste funzioni vanno ad aggiungersi ad altre decine di funzioni di accessibilità già disponibili su Apple Vision Pro, un dispositivo con un sistema di input flessibile e un’interfaccia intuitiva, progettato tenendo conto di tante diverse tipologie di utente. Funzioni come VoiceOver, Zoom e Filtri del colore permetteranno inoltre alle persone cieche o ipovedenti di accedere all’esperienza dello spatial computing (una tecnologia che prevede la totale digitalizzazione delle attività di macchine, persone, oggetti e degli ambienti circostanti), mentre funzioni come Accesso guidato supporteranno chi ha disabilità cognitive. L’utente potrà controllare Vision Pro usando gli occhi, le mani o la voce, nella combinazione che preferisce, insieme a funzioni di accessibilità come Controllo interruttori, azioni, suoni e Controllo con ritardo, utili anche per chi ha disabilità di tipo fisico. (S.L.)
Ultimo aggiornamento il 8 Agosto 2024 da Simona