Apple vandaag voorbeeld van enkele nieuwe toegankelijkheidsfuncties die verschijnen in iOS 17. Ondersteunende toegang filtert bepaalde apps tot hun meest”essentiële functies”om mensen met cognitieve beperkingen te helpen. Met Assistive Access worden aangepaste telefoon-, FaceTime-, berichten-, camera-, foto’s-en muziekervaringen allemaal gecombineerd in één Oproepen-app. Er worden contrastrijke knoppen en grote tekstlabels gebruikt. Voor iPhone-gebruikers die liever visueel communiceren, bevat de Berichten-app een emoji-only QWERTY en de mogelijkheid om een videoboodschap op te nemen om naar dierbaren te sturen. Bovendien kunnen gebruikers met Assistive Access kiezen tussen een op rasters gebaseerde startschermlay-out die meer visueel is en een op rijen gebaseerde lay-out voor degenen die het gemakkelijker vinden om tekst te verwerken.
Assistive Access maakt iPhone gebruiksvriendelijker voor mensen met cognitieve problemen
Met Live Speech, dat beschikbaar zal zijn op iPhone, iPad en Mac, kan een gebruiker tijdens telefoongesprekken en FaceTime-gesprekken typen wat hij wil zeggen en hardop laten uitspreken door zijn apparaat zodat het kan worden gehoord door de andere partijen in het spraak-of videogesprek. Zinnen die vaak door de gebruiker worden herhaald, kunnen worden opgeslagen en snel worden ingevoegd in gesprekken met vrienden, familie en collega’s. Apple wijst erop dat Live Speech is”ontworpen om wereldwijd miljoenen mensen te ondersteunen die niet kunnen praten of die hun spraak na verloop van tijd zijn kwijtgeraakt.”
Live Speech stelt mensen met een spraakbeperking in staat om te typen wat ze willen om te zeggen tijdens een spraak-of FaceTime-oproep en de telefoon kondigt het aan
Voor degenen die hun stem dreigen te verliezen (zoals Apple opmerkt, kan het een persoon zijn bij wie onlangs de diagnose ALS (amyotrofische laterale sclerose) is gesteld ) of een ziekte heeft die het steeds moeilijker maakt om te praten, zal een functie genaamd Personal Voice hen ongeveer 15 minuten lang een willekeurige set tekst laten lezen op een iPhone of iPad. Deze functie kan worden geïntegreerd met de eerder genoemde Live Speech, zodat een iPhone of iPad-gebruikers die hun stem kwijt zijn, kunnen nog steeds met anderen praten met behulp van een opgenomen versie van hun stem.
Personal Voice laat een iPhone-gebruiker teksten en zinnen opnemen op het apparaat om te gebruiken met de eerder genoemde Live Speech-functie
Een andere toegankelijkheidsfunctie genaamd”Aanwijzen en spreken in vergrootglas”helpt mensen met een visuele handicap tekstlabels te lezen op de knoppen die worden gebruikt om huishoudelijke artikelen te bedienen. Met behulp van de achteruitrijcamera, de LiDAR-scanner en machine learning op het apparaat kan de gebruiker zijn of haar iPhone-camera bijvoorbeeld op het bedieningspaneel van een magnetron richten en als de gebruiker zijn vingers over de afbeelding van een knop op het touchscreen, kondigt de iPhone de tekst aan die bij die knop hoort. Dit helpt degenen die niet goed kunnen zien, toch controle te hebben over sommige delen van hun leven.
Dit zijn allemaal handige functies waarover we misschien meer horen wanneer Apple iOS 17 op WWDC op 5 juni previewt. Tim Cook, CEO van Apple, zegt:”Bij Apple hebben we altijd geloofd dat de beste technologie technologie is die voor iedereen is gemaakt. Vandaag zijn we verheugd om ongelooflijke nieuwe functies te delen die voortbouwen op onze lange geschiedenis van het toegankelijk maken van technologie, zodat iedereen heeft de mogelijkheid om te creëren, te communiceren en te doen waar ze van houden.”