L'iPhone e l'iPad? Si controllano con lo sguardo. E Apple lancia la funzione contro il mal d'auto

In occasione della Giornata mondiale dell'accessibilità, Apple ha anticipato nuove e importanti funzioni disponibili su iPhone e iPad nei prossimi mesi: ecco quali sono le principali

L'iPhone e l'iPad? Si controllano con lo sguardo. E Apple lancia la funzione contro il mal d'auto
00:00 00:00

Sarà una vera e propria rivoluzione quella annunciata da Apple per la Giornata mondiale dell'accessibilità e disponibile entro la fine del 2024 presumibilmente con l'aggiornamento software di iOS 18: su iPhone e iPad sarà possibile scorrere le pagine, lo schermo, le app e vedere le foto utilizzando semplicemente gli occhi. La musica, poi, potrà essere accessibile anche ai non udenti e sono in arrivo importanti novità anche per chi guida in auto. Queste enormi migliorìe sono pensate nell'ambito dell'accessibilità per gli utenti con disabilità fisiche.

Cos'è Eye Tracking

Letteralmente "tracciamento oculare", la funzione Eye Tracking si baserà sull’intelligenza artificiale con la possibilità di controllare iPad e iPhone utilizzando soltanto gli occhi: gli esperti di Cupertino spiegano che tutto questo sarà possibile grazie all'uso della fotocamera frontale che in pochi secondi e semplici passaggi consentirà configurazione e calibrazione. La privacy è salva perchè con il "machine learning on-device", tutti i dati utilizzati per configurare e controllare questa funzione rimarranno al sicuro nel dispositivo e non verranno mai inviati alla Apple. Ma come faranno gli occhi a sfogliare le pagine e quant'altro? Bisognerà guardare alcuni puntini che compariranno sullo schermo in punti diversi: poi, con il "controllo assistito" verranno abbinati i movimenti della testa e degli occhi per ogni azione. Anche se tutto questo è stato progettato e realizzato per chi ha problemi motori, ciò non toglie che potrà essere utilizzato da chiunque.

Cos'è Music Haptics

Music Haptics darà la possibilità alle persone sorde o ipoudenti di "sentire" la musica su iPhone in un modo completamente inedito: con la funzione attiva, il dispositivo sarà in grado di riprodurre colpi, texture sonore e le vibrazioni sottili di una canzone grazie al feedback atipico. In questo modo sarà possibile ascoltare milioni di brani su Apple Music e disponibile come API con gli sviluppatori che potranno rendere la musica più accessibile nelle proprie app. Chi ha problemi di pronuncia, invece, sarà disponibile la funzione "Vocal Shortcuts" che permette "di assegnare ai comandi frasi personalizzate che Siri è in grado di comprendere per attivare scorciatoie e completare task complessi", spiegano gli sviluppatori. Anche in questo caso, dietro le quinte ci sarà l'intelligenza artificiale in grado di creare modelli vocali sui suoni pronunciati dalla persona.

Cosa succede contro il mal d'auto

Con Vehicle Motion Cues, letteralmente "Segnali di movimento del veicolo", si potranno limitare le sensazioni di malessere causate dal movimento di auto, moto, bus, pullmann ecc. chiamata con il nome di chinetosi e causata da "un conflitto sensoriale fra ciò che si vede e la sensazione che si prova, e questo disturbo potrebbe impedire ad alcune persone di usare iPhone o iPad mentre viaggiano a bordo di un veicolo". Con la funzione attiva, sugli schermi dei dispositivi appariranno alcuni punti animati in grado di riprodurre le variazioni di movimento del veicolo e ridurre il conflitto sensoriale senza interferire con il contenuto principale.

Altre e nuove funzioni

Ecco poi anche CarPlay che prevede Controllo vocale, Riconoscimento suoni e Filtri Colore: nel primo caso le app potranno essere gestite soltanto grazie alla voce; nel secondo, le persone sorde o ipoudenti che guidano o viaggiano in auto possono attivare le notifiche per suoni come clacson e sirene mentre i Filtri Colore aiuteranno le persone colpite da daltonismo a visualizzare meglio l’interfaccia di CarPlay.

Un’altra novità è la funzione “Listen for Atypical Speech” ("Ascolta il discorso atipico"), "che offre all’utente la possibilità di migliorare il riconoscimento vocale per un più ampio range di voci, avvalendosi del machine learning on-device per riconoscere gli schemi vocali", spiega la Apple. Lo sviluppo di questa funzione è stato pensato per le persone con problematiche di parola e colpite da paralisi cerebrale, sclerosi laterale amiotrofica (Sla) o ictus. Altra importante novità è rappresentata da Trascrizioni live, che aiuterà qualsiasi utente, tra cui sordi o ipoudenti, a partecipare ad una conversazione dal vivo o nei contenuti audio delle app.

L'evento a Milano

Le novità sono state presentate in occasione della Giornata Mondiale dell'Accessibilità: ad Apple Piazza Liberty, a Milano, nella serata di giovedì 16 maggio hanno preso parte le menti che hanno ideato e prodotto la campagna "Assume that I can": Martina Fuga di CoorDown, Luca Lorenzini e Luca Pannese di SMALL (con

video pre-registrarti), e Karim Bartoletti di Indiana Production. L'associaizone ha preso l'impegno di focalizzare l'attenzione sulle persone con Sindrome di Down prestando particolare attenzione a non parlare al posto loro).

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica