Apple oggi ha presentato in anteprima alcune nuove funzionalità di accessibilità che appariranno in iOS 17. Assistive Access filtra alcune app fino alle loro”funzionalità essenziali”per aiutare coloro che hanno disabilità cognitive. Con Assistive Access, le esperienze personalizzate di Telefono, FaceTime, Messaggi, Fotocamera, Foto e Musica vengono combinate in un’unica app Chiamate. Vengono utilizzati pulsanti ad alto contrasto e grandi etichette di testo. Per gli utenti di iPhone che preferiscono comunicare visivamente, l’app Messaggi include una QWERTY solo emoji e la possibilità di registrare un messaggio video da inviare ai propri cari. Inoltre, con Assistive Access, gli utenti possono scegliere tra un layout della schermata iniziale basato su griglia che è più visivo e un layout basato su righe per coloro che trovano più facile elaborare il testo.
Assistive Access rende iPhone più facile da usare per chi ha problemi cognitivi
Con Live Speech, che sarà disponibile su iPhone, iPad e Mac, durante le telefonate e le chiamate FaceTime un utente può digitare ciò che desidera vuole dire e farlo pronunciare ad alta voce dal suo dispositivo in modo che possa essere ascoltato dagli altri interlocutori durante la chiamata vocale o video. Le frasi spesso ripetute dall’utente possono essere salvate e inserite rapidamente nelle conversazioni con amici, familiari e colleghi. Apple sottolinea che Live Speech è”progettato per supportare milioni di persone in tutto il mondo che non sono in grado di parlare o che hanno perso la parola nel tempo”.
Live Speech consente a chi ha difficoltà di parola di digitare ciò che desidera da dire in una chiamata vocale o FaceTime e il telefono lo annuncerà
Per coloro che rischiano di perdere la voce (come osserva Apple, potrebbe essere una persona a cui è stata recentemente diagnosticata la SLA (sclerosi laterale amiotrofica ) o ha una malattia che rende progressivamente più difficile parlare, una funzione chiamata Personal Voice consentirà loro di leggere una serie casuale di testo per circa 15 minuti su un iPhone o iPad. Questa funzione si integra con il già citato Live Speech in modo che un iPhone o L’utente iPad che ha perso la voce può comunque parlare con gli altri utilizzando una versione registrata della propria voce.
Personal Voice consente a un utente iPhone di registrare testi e frasi sul dispositivo da utilizzare con la suddetta funzione Live Speech
Un’altra funzione di accessibilità chiamata”Point and Speak in Magnifier”aiuta le persone con disabilità visive a leggere le etichette di testo sui pulsanti utilizzati per eseguire gli articoli per la casa. Utilizzando la fotocamera posteriore, lo scanner LiDAR e l’apprendimento automatico sul dispositivo, l’utente può mettere a fuoco la fotocamera dell’iPhone sul pannello di controllo di un forno a microonde, ad esempio, e mentre l’utente sposta le dita sull’immagine di un pulsante su touchscreen, l’iPhone annuncerà il testo associato a quel pulsante. Ciò aiuterà coloro che non vedono bene ad avere ancora il controllo su alcune parti della loro vita.
Queste sono tutte funzioni utili di cui potremmo sentire di più quando Apple presenterà in anteprima iOS 17 al WWDC il 5 giugno. L’amministratore delegato di Apple, Tim Cook, afferma:”In Apple, abbiamo sempre creduto che la migliore tecnologia sia la tecnologia creata per tutti. Oggi siamo entusiasti di condividere nuove incredibili funzionalità che si basano sulla nostra lunga storia di rendere la tecnologia accessibile, in modo che tutti ha l’opportunità di creare, comunicare e fare ciò che ama”.