Da Apples Worldwide Developers Conference (WWDC) in weniger als drei Wochen beginnt, müssen wir nicht lange warten, um herauszufinden, was in iOS 17, Apples nächster großer iPhone-Softwareversion, kommt. Allerdings gewährt uns Apple schon bald einen kleinen Vorgeschmack auf einige der coolen neuen Barrierefreiheitsfunktionen, die iOS 17 mit sich bringen wird.
Es gibt einen Zweck, wenn Apple diesen Vorabblick anbietet bei einigen Funktionen von iOS 17. An diesem Donnerstag, dem 18. Mai, findet der Global Accessibility Awareness Day (GAAD) statt, ein Anlass, der „alle dazu bringen soll, über digitalen Zugang zu sprechen, nachzudenken und zu lernen.“ Inklusion und die mehr als eine Milliarde Menschen mit Behinderungen/Beeinträchtigungen.“
Deshalb schließt sich Apple dem Chor an und teilt die Bemühungen, die das Unternehmen unternimmt, um den integrativen Zugang zu seinen Geräten zu erleichtern. Es ist auch nicht das erste Mal; Apple hat bei derselben Gelegenheit vor zwei Jahren eine riesige Liste beeindruckender neuer Barrierefreiheitsfunktionen für iOS 15 angekündigt und letztes Jahr dasselbe für iOS 16 getan.
Dieses Mal können wir laut Apple eine weitere Liste leistungsstarker Verbesserungen der Barrierefreiheit in iOS 17 erwarten, plus ein paar andere Initiativen zur Förderung der Barrierefreiheit innerhalb der Dienste von Apple.
„Making Products for Everyone“
Laut Apples Newsroom-Ankündigung: Die neuen Barrierefreiheitsfunktionen decken ein breites Spektrum an Anforderungen ab, darunter kognitive, Seh-, Hör-und Mobilitätsbarrieren sowie nicht sprechende Personen.
Dazu gehören Assistive Access zur Bereitstellung klarerer Benutzeroberflächen für Menschen mit kognitiven Behinderungen, Live Speech um nicht sprechenden Personen das Tippen zu ermöglichen, um während Gesprächen zu sprechen, Personal Voice für diejenigen, bei denen das Risiko besteht, dass sie nicht mehr sprechen können, und Point and Speak in Magnifier, um Menschen mit Sehbehinderungen zu helfen Interagieren Sie mit physischen Objekten, die über mehrere Textbeschriftungen verfügen.
Apple weist darauf hin, dass die neue Sammlung von Barrierefreiheitsfunktionen auf „Fortschritten bei Hardware und Software, einschließlich maschinellem Lernen auf dem Gerät zur Gewährleistung der Privatsphäre der Benutzer“, aufbaut und gleichzeitig mehrere Funktionen des iPhones gleichzeitig nutzt.
Zum Beispiel nutzt die Funktion Zeigen und Sprechen die Kamera-App, den LiDAR-Scanner und die Leistung der Neural Engine der A-Serie von Apple, um Benutzern die Interaktion mit Geräten wie einer Mikrowelle zu erleichtern, die möglicherweise mehrere Tasten haben und Etiketten. Wenn die Person ihren Finger über die Tastatur bewegt, kann ihr iPhone erkennen, auf welche Taste ihr Finger zeigt, und den Text auf dieser Taste ansagen. Dies wird in die bestehende Magnifier-App integriert und kann zusammen mit den Barrierefreiheitsfunktionen „Personenerkennung“, „Türerkennung“ und „Bildbeschreibungen“ verwendet werden, die Apple in den letzten Jahren hinzugefügt hat.
Entwickelt für Menschen mit kognitiven Schwierigkeiten. Assistive Access wird „Apps und Erlebnisse auf ihre wesentlichen Funktionen reduzieren, um die kognitive Belastung zu verringern.“ Dieser Modus bietet eine vereinfachte Benutzeroberfläche, die auf der Grundlage des Feedbacks von iPhone-Benutzern mit kognitiven Behinderungen und ihren vertrauenswürdigen Unterstützern entwickelt wurde, um sich auf Kernfunktionen des iPhone zu konzentrieren, wie „Kontakt mit geliebten Menschen herstellen, Fotos aufnehmen und genießen sowie Musik hören“.
In einer der leistungsstärkeren Anwendungen des maschinellen Lernens fügt Apple den Benutzern auch die Möglichkeit hinzu, ein KI-Modell ihrer eigenen Stimme zu erstellen. Personal Voice wurde für Personen entwickelt, die Gefahr laufen, ihre Sprachfähigkeit zu verlieren. Es zeichnet etwa 15 Minuten geführte Audioaufnahmen einer Person auf und baut daraus eine Stimme auf, die wie sie klingt. Dies kann dann verwendet werden, um Text-zu-Sprache-Gespräche mit der eigenen Stimme und nicht mit einer synthetischen Stimme zu führen.
Da es sich im Grunde genommen um eine Barrierefreiheitsfunktion handelt, die denjenigen helfen soll, die irgendwann ihre Sprachfähigkeit verlieren könnten, ist es unwahrscheinlich, dass wir sie auf andere Weise anwenden werden – erwarten Sie nicht, dass Siri anfängt, mit Ihnen zu sprechen Deine eigene Stimme. Stattdessen wird die persönliche Stimme des Benutzers Teil der Barrierefreiheitsfunktion Live Speech sein, die es einer Person ermöglicht, während eines Telefonanrufs, eines Video-Chats oder eines persönlichen Gesprächs etwas zu tippen und sich ihren Text laut vorlesen zu lassen andere Person. Es ist nicht schwer, sich vorzustellen, dass die Möglichkeit, diese Nachrichten mit ihrer eigenen Stimme sprechen zu lassen, eine erstaunliche Funktion für diejenigen wäre, die eines Tages vielleicht nicht mehr in der Lage sein könnten, alleine zu sprechen.
„Letztendlich Das Wichtigste ist, mit Freunden und Familie kommunizieren zu können“, sagte Philip Green, Vorstandsmitglied und ALS-Befürworter der gemeinnützigen Organisation Team Gleason, der seit Erhalt seiner ALS-Diagnose im Jahr 2018 erhebliche Veränderungen in seiner Stimme erlebt hat. „Wenn Sie können Sagen Sie ihnen, dass Sie sie lieben, mit einer Stimme, die wie Sie klingt. Das macht den Unterschied in der Welt aus – und die Möglichkeit, Ihre synthetische Stimme auf Ihrem iPhone in nur 15 Minuten zu erstellen, ist außergewöhnlich.“
Außerdem Apple weist darauf hin, dass es bald möglich sein wird, Made for iPhone-Hörgeräte direkt mit einem Mac zu koppeln und auf die gleiche Weise anzupassen wie bei der Verwendung eines iPhone oder iPad. Dies wird voraussichtlich in macOS 14 eintreffen. Darüber hinaus sind noch einige weitere kleinere Verbesserungen der Barrierefreiheit geplant, darunter phonetische Vorschläge für die Textbearbeitung in der Sprachsteuerung, die Verwendung von Switch Control zum Erstellen virtueller Gamecontroller für Personen mit körperlichen und motorischen Behinderungen sowie die Anpassung der Textgröße in allen Mac-Apps für Benutzer mit Sehbehinderung und das Anhalten von Bildern mit bewegten Elementen für diejenigen, die empfindlich auf schnelle Animationen reagieren.
Wir feiern den Global Accessibility Awareness Day
Über die Neuerungen von iOS 17 und anderen hinaus führt Apple auch mehrere neue Initiativen in seinen Diensten ein, um den Global Accessibility Awareness Day zu begehen.
Apples Kundenunterstützungsfunktion SignTime wird am 18. Mai auf Deutschland, Italien, Spanien und Südkorea ausgeweitet, um Apple-Kunden auf Abruf Gebärdensprachdolmetscher zur Verfügung zu stellen. Die Funktion ist bereits in den USA, Kanada, Großbritannien, Frankreich, Australien und Japan verfügbar.
Apple wird außerdem Sitzungen an mehreren Apple Store-Standorten auf der ganzen Welt anbieten, um Kunden über Barrierefreiheitsfunktionen zu informieren und aufzuklären. Die Apple Carnegie Library in Washington, DC, wird außerdem eine „Today at Apple“-Sitzung mit der Gebärdensprachdarstellerin und Dolmetscherin Justina Miles abhalten.
Diese Woche kommen auch neue Podcasts, Shows, Bücher und sogar Workouts zum Thema Barrierefreiheit zu den Diensten von Apple, darunter „Being Heumann: An Unrepentant Memoir of a Disability Rights Activist“ in Apple Books, kuratierte Filme und Serien von namhaften Geschichtenerzählern aus der Behindertengemeinschaft“ in der Apple TV App und „genreübergreifende Musikvideos in amerikanischer Gebärdensprache (ASL)“ in Apple Music. Trainer Jamie-Ray Hartshorne wird diese Woche auch ASL integrieren und nützliche Barrierefreiheitsfunktionen während der Apple Fitness+-Workouts hervorheben, und der App Store wird drei Führungskräfte der Behindertengemeinschaft hervorheben, die ihre Erfahrungen als nicht sprechende Individuen und die transformativen Auswirkungen, die ergänzende und alternative Kommunikation mit sich bringt, teilen werden ( AAC)-Apps in ihrem Leben hatten.