Heute hat Apple eine Vorschau auf neue kognitive, sprachliche, visuelle, hörende und mobile Zugänglichkeitsfunktionen wie Assistive Access, Live Speech, Erkennungsmodus und andere gegeben. Die Veröffentlichung der neuen Funktionen ist für später in diesem Jahr geplant und wird daher höchstwahrscheinlich Teil der kommenden Updates für iOS 17, iPadOS 17 und macOS 14 sein.

Darüber hinaus hat das Technologieunternehmen auch neue Funktionen angekündigt wird später in diesem Monat anlässlich des Global Accessibility Awareness Day am 18. Mai veröffentlicht.

4 neue Barrierefreiheitsfunktionen kommen später in diesem Jahr für iPhone, iPad und Mac

Barrierefreiheit ist im Ökosystem von Apple verankert. Der Technologieriese bietet mehrere leistungsstarke, nützliche Barrierefreiheitsfunktionen für Benutzer mit Seh-, Hör-und Sprachbehinderungen, um Aufgaben in ihrem täglichen und beruflichen Leben wie Voiceover, Türerkennung, Sprachsteuerung, Tonerkennung und andere auszuführen. Kürzlich wurde in iOS 16.4 die neue Barrierefreiheitsfunktion „Dim Flashing Lights“ hinzugefügt.

In Zusammenarbeit mit Gruppen, die ein breites Spektrum von Benutzern mit Behinderungen repräsentieren, hat Apple vier neue Barrierefreiheitsfunktionen für Benutzer mit kognitiven, sprachlichen, Seh-, Hör-und Mobilitätseinschränkungen, um einen echten Einfluss auf ihr Leben zu haben.

Hier sind die neuen kognitiven, visuellen, hörenden und mobilen Barrierefreiheitsfunktionen, die später im Jahr 2023 für iPhone, iPad und Mac verfügbar sein werden. 

Assistive Access für Benutzer mit kognitiven Behinderungen

Assistive Access ist für iOS und iPadOS verfügbar und ermöglicht es Benutzern mit kognitiven Behinderungen, ihr iPhone und iPad „einfacher“ zu verwenden. Es bietet ein anpassbares Erlebnis, sodass sie Fotos aufnehmen, Musik hören, mit Familie und Freunden in Kontakt treten können usw mehr.

Telefon und FaceTime, die in einer einzigen Anruf-App kombiniert wurden, sowie Nachrichten, Kamera, Fotos und Musik. Die Funktion bietet eine eindeutige Benutzeroberfläche mit kontrastreichen Schaltflächen und großen Textbeschriftungen sowie Tools, die vertrauenswürdigen Unterstützern dabei helfen, das Erlebnis auf die von ihnen unterstützte Person abzustimmen.

Live Speech für nicht sprechende Personen

Die kommende Live Speech-Funktion ist auf iOS, iPadOS und macOS verfügbar und ermöglicht nicht sprechenden Benutzern die Teilnahme an persönlichen Gesprächen und Telefonanrufen per Tipp-zu-Schreiben. Sprechfähigkeit. Benutzer können außerdem ihre häufig verwendeten Antworten speichern, um sich schnell an Gesprächen zu beteiligen.

Persönliche Stimme für Benutzer, bei denen das Risiko besteht, dass sie nicht mehr sprechen können

Benutzer, bei denen ALS (Amyotrophe Lateralsklerose) diagnostiziert wurde, laufen Gefahr, ihre Fähigkeit zu verlieren Personen, die nicht sprechen können oder andere Probleme haben, die ihre Sprechfähigkeit beeinträchtigen, können „Personal Voice“ verwenden, um eine synthetische Stimme zu erstellen, die wie sie klingt, um mit Familie und Freunden in Kontakt zu treten.

Mit dem iPhone oder iPad können Benutzer dies tun Erstellen Sie eine persönliche Stimme, indem Sie eine zufällige Reihe von Texten lesen, um 15 Minuten Audio aufzunehmen. Es wird auch in Live Speech integriert sein, sodass sie mit ihrer eigenen Stimme antworten können.

Benutzer müssen bedenken, dass „Personal Voice mit iPhone, iPad und Mac mit Apple-Chips erstellt werden kann und auf Englisch verfügbar sein wird.“

Erkennungsmodus für Benutzer mit Sehbehinderung

Mithilfe der Point-and-Speak-Technologie in Magnifier ermöglicht der neue Erkennungsmodus blinden oder sehbehinderten Benutzern die Interaktion mit Objekten mit mehreren Textbeschriftungen.

Diese Funktion wird jedoch auf iPhone Pro-Modellen verfügbar sein, da sie einen LiDAR-Scanner zusammen mit Point and Speak verwendet, das Eingaben von der Kamera-App und maschinelles Lernen auf dem Gerät kombiniert, um den Text laut vorzulesen.

Point and Speak wird auf iPhone-und iPad-Geräten mit dem LiDAR-Scanner in Englisch, Französisch, Italienisch, Deutsch, Spanisch, Portugiesisch, Chinesisch, Kantonesisch, Koreanisch, Japanisch und Ukrainisch verfügbar sein.

Weitere Verbesserungen 

Möglichkeit, Made for iPhone-Hörgeräte direkt mit dem Mac zu koppeln. *Benutzer können Made for iPhone-Hörgeräte mit ausgewählten Mac-Geräten mit M1-Chip und allen Mac-Geräten mit M2-Chip koppeln. Die Sprachsteuerung erhält phonetische Vorschläge für die Textbearbeitung in Englisch, Spanisch, Französisch und Deutsch. Der Sprachsteuerungsleitfaden bietet Tipps und Tricks zur Verwendung von Sprachbefehlen. Benutzer von Switch Control können jeden Schalter in einen Gamecontroller verwandeln. Textgrößenintegration mit macOS-Apps wie Nachrichten, Mail, Finder, Notizen und Kalender. Möglichkeit, Bilder mit beweglichen Elementen wie GIFs anzuhalten. Voiceover erhält einen natürlicher klingenden Siri.

Apple-CEO Tim Cook sagte:

„Bei Apple waren wir immer davon überzeugt, dass die beste Technologie die Technologie ist, die für alle entwickelt wurde. Heute freuen wir uns, unglaubliche neue Funktionen vorzustellen, die auf unserer langen Geschichte der Zugänglichkeit von Technologie aufbauen, sodass jeder die Möglichkeit hat, das zu erschaffen, zu kommunizieren und zu tun, was er liebt.“

Barrierefreiheitsfunktionen erscheinen diesen Monat anlässlich des Global Accessibility Awareness Day

Am 18. Mai wird weltweit der Global Accessibility Awareness Day gefeiert, um das Bewusstsein dafür zu schärfen, das Web für Benutzer mit Behinderungen barrierefrei zu machen. In diesem Sinne wird Apple diese Woche die folgende neue Barrierefreiheitsfunktion einführen:

SignTime wird am 18. Mai in Deutschland, Italien, Spanien und Südkorea eingeführt, um Apple Store-und Apple Support-Kunden mit Gebärdensprache auf Abruf zu verbinden Dolmetscher. Es ist bereits in den USA, Großbritannien, Frankreich, Japan und Australien erhältlich. Informative Sitzungen an ausgewählten Apple Store-Standorten, um Kunden dabei zu helfen, Barrierefreiheitsfunktionen kennenzulernen. Aktualisierung der Verknüpfungen mit der Funktion „Erinnern“ zum Erstellen eines visuellen Tagebuchs in Notes für Benutzer mit kognitiven Behinderungen. Inhalte, die sich auf barrierefreie Technologie oder deren Auswirkungen beziehen, werden in Apple Podcasts, der Apple TV App, Apple Books und Apple Music enthalten sein. Apple Fitness+, Trainer Jamie-Ray Hartshorne integriert ASL. Im App Store werden drei führende Persönlichkeiten der Behinderten-Community vorgestellt: Aloysius Gan, Jordyn Zimmerman und Bradley Heaven.

Categories: IT Info