Met de Worldwide Developers Conference (WWDC) van Apple die over minder dan drie weken van start gaat, hoeven we niet lang te wachten om erachter te komen wat er gaat gebeuren in iOS 17, de volgende grote iPhone-softwarerelease van Apple. Apple geeft ons echter een vroege traktatie in de vorm van een voorproefje van enkele van de coole nieuwe toegankelijkheidsfuncties die iOS 17 op tafel zal brengen.

Het is een doel dat Apple deze vooruitblik aanbiedt bij enkele functies van iOS 17. Op donderdag 18 mei is het Global Accessibility Awareness Day (GAAD), een gelegenheid die bedoeld is om”iedereen te laten praten, denken en leren over digitale toegang en inclusie, en de meer dan een miljard mensen met een handicap/beperking.”

Daarom voegt Apple zijn stem toe aan het refrein en deelt het de inspanningen die het levert om inclusieve toegang tot zijn apparaten mogelijk te maken. Het is ook niet de eerste keer; Apple kondigde twee jaar geleden bij dezelfde gelegenheid een enorme lijst met indrukwekkende nieuwe toegankelijkheidsfuncties voor iOS 15 aan en deed vorig jaar hetzelfde voor iOS 16.

Deze keer zegt Apple dat we nog een lijst met krachtige toegankelijkheidsverbeteringen kunnen verwachten in iOS 17, plus een paar andere initiatieven om de toegankelijkheid binnen de diensten van Apple te bevorderen.

‘Making Products for Everyone’

Volgens Apple’s newsroom-aankondiging dekken de nieuwe toegankelijkheidsfuncties een breed scala aan behoeften, waaronder cognitieve, visuele, gehoor-en mobiliteitstoegankelijkheid, evenals niet-sprekende individuen.

Dit omvat Assistive Access om duidelijkere gebruikersinterfaces te bieden voor mensen met cognitieve handicaps, Live Speech om niet-sprekende personen in staat te stellen te typen om te spreken tijdens gesprekken, Persoonlijke stem voor degenen die het risico lopen hun spraakvermogen te verliezen, en Wijzen en spreken in vergrootglas om mensen met een visuele handicap te helpen interactie met fysieke objecten die meerdere tekstlabels hebben.

Apple merkt op dat de nieuwe verzameling toegankelijkheidsfuncties voortbouwt op”vooruitgang in hardware en software, inclusief machine learning op het apparaat om de privacy van gebruikers te waarborgen”, terwijl tegelijkertijd meerdere functies van de iPhone worden gebruikt.

>

De Point and Speak-functie maakt bijvoorbeeld gebruik van de Camera-app, LiDAR-scanner en de kracht van Apple’s A-serie Neural Engine om gebruikers te helpen communiceren met apparaten zoals een magnetron die meerdere knoppen kan hebben en etiketten. Terwijl de persoon zijn vinger over het toetsenbord beweegt, kan zijn iPhone identificeren naar welke knop zijn vinger wijst en de tekst op die knop aankondigen. Dit wordt ingebouwd in de bestaande Magnifier-app en kan worden gebruikt naast de toegankelijkheidsfuncties People Detection, Door Detection en Image Descriptions die Apple de afgelopen jaren heeft toegevoegd.

Ontworpen voor mensen met cognitieve problemen, Ondersteunende toegang zal”apps en ervaringen destilleren tot hun essentiële functies om de cognitieve belasting te verlichten.”Deze modus presenteert een vereenvoudigde gebruikersinterface die is ontworpen op basis van feedback van iPhone-gebruikers met cognitieve beperkingen en hun vertrouwde supporters om zich te concentreren op kernfuncties van de iPhone, zoals”contact maken met dierbaren, foto’s maken en ervan genieten en naar muziek luisteren”.

In een van de krachtigere toepassingen van machine learning voegt Apple ook de mogelijkheid toe voor gebruikers om een ​​AI-model van hun eigen stem te maken. Personal Voice is ontworpen voor mensen die het risico lopen hun spraakvermogen te verliezen. Het neemt ongeveer 15 minuten begeleide audio van een persoon op en gebruikt die om een ​​stem op te bouwen die klinkt zoals zij. Dit kan vervolgens worden gebruikt om tekst-naar-spraak-gesprekken te voeren in wat in feite hun eigen stem is in plaats van een gesynthetiseerde.

Aangezien dit in wezen een toegankelijkheidsfunctie is om degenen te helpen die uiteindelijk hun spraakvermogen verliezen, is het niet waarschijnlijk dat we het op andere manieren zullen zien toegepast-verwacht niet dat Siri in je eigen stem. In plaats daarvan maakt de persoonlijke stem van de gebruiker deel uit van de toegankelijkheidsfunctie Live Speech, waarmee een persoon tijdens een telefoongesprek, videochat of persoonlijk gesprek kan typen en de tekst hardop kan laten uitspreken voor de gebruiker. ander persoon. Het is niet moeilijk voor te stellen hoe de mogelijkheid om die berichten met hun eigen stem te laten uitspreken een verbazingwekkende eigenschap zou zijn voor degenen die op een dag misschien niet in staat zullen zijn om zelfstandig te spreken.

“Uiteindelijk, het belangrijkste is dat je kunt communiceren met vrienden en familie”, zegt Philip Green, bestuurslid en pleitbezorger voor ALS bij de non-profitorganisatie Team Gleason, die aanzienlijke veranderingen in zijn stem heeft ervaren sinds hij in 2018 zijn ALS-diagnose kreeg. vertel ze dat je van ze houdt, met een stem die klinkt zoals jij, het maakt het verschil in de wereld-en het is buitengewoon om in slechts 15 minuten je synthetische stem op je iPhone te kunnen creëren.”

Bovendien is het buitengewoon. , merkt Apple op dat het binnenkort mogelijk zal zijn om Made for iPhone-hoortoestellen rechtstreeks aan een Mac te koppelen en op dezelfde manier aan te passen als bij het gebruik van een iPhone of iPad. Dit komt waarschijnlijk in macOS 14. Er komen ook verschillende andere kleinere toegankelijkheidsverbeteringen, waaronder fonetische suggesties voor tekstbewerking in Spraakbesturing, het gebruik van Schakelbediening om virtuele gamecontrollers te maken voor mensen met fysieke en motorische handicaps, het aanpassen van de tekstgrootte in Mac-apps voor slechtziende gebruikers, en pauzerende beelden met bewegende elementen voor mensen die gevoelig zijn voor snelle animaties.

Global Accessibility Awareness Day vieren

Naast wat er in iOS 17 et al komt, introduceert Apple ook verschillende nieuwe initiatieven in al zijn services om Global Accessibility Awareness Day te vieren.

Apple’s SignTime-functie voor klantenondersteuning wordt op 18 mei uitgebreid naar Duitsland, Italië, Spanje en Zuid-Korea om Apple-klanten in contact te brengen met on-demand gebarentaaltolken. De functie is al beschikbaar in de VS, Canada, het VK, Frankrijk, Australië en Japan.

Apple zal ook sessies aanbieden op verschillende Apple Store-locaties over de hele wereld om klanten te helpen informeren en informeren over toegankelijkheidsfuncties. Apple Carnegie Library in Washington, DC, houdt ook een Today at Apple-sessie met gebarentaalartiest en tolk Justina Miles.

Deze week komen er ook nieuwe podcasts, shows, boeken en zelfs workouts met een toegankelijkheidsthema naar de diensten van Apple, waaronder Being Heumann: An Unrepentant Memoir of a Disability Rights Activist in Apple Books, “films en series samengesteld door opmerkelijke verhalenvertellers uit de gehandicaptengemeenschap’in de Apple TV-app, en’cross-genre American Sign Language (ASL)-muziekvideo’s’in Apple Music. Trainer Jamie-Ray Hartshorne zal deze week ook ASL integreren en handige toegankelijkheidsfuncties belichten tijdens Apple Fitness+-workouts, en de App Store zal drie leiders van de gemeenschap met een handicap in de schijnwerpers zetten die hun ervaringen als niet-sprekende individuen en de transformerende effecten van ondersteunende en alternatieve communicatie zullen delen ( AAC) apps in hun leven hebben gehad.

Categories: IT Info