Apple heute eine Vorschau einer Reihe neuer Barrierefreiheitsfunktionen für iPhone, iPad und Mac.

Die neuen Softwarefunktionen für kognitive, sprachliche und visuelle Barrierefreiheit stehen kurz vor der Einführung später in diesem Jahr, wahrscheinlich als Teil von iOS 17, iPadOS 17 und macOS 14.

Assistive Access

Assistive Access hilft „iPhone“-und „iPad“-Benutzern mit kognitiven Behinderungen, indem es Apps und Erlebnisse auf ihre Kernfunktionen reduziert. Der Modus umfasst ein individuelles Erlebnis für Telefon und FaceTime, die in einer einzigen Anruf-App kombiniert werden, sowie für Nachrichten, Kamera, Fotos und Musik. Die Funktion bietet eine eindeutige Benutzeroberfläche mit kontrastreichen Schaltflächen und großen Textbeschriftungen sowie Tools, die vertrauenswürdigen Unterstützern dabei helfen, das Erlebnis auf die von ihnen unterstützte Person anzupassen. Benutzer und vertrauenswürdige Unterstützer können beispielsweise auch zwischen einem visuelleren, rasterbasierten Layout für ihren Startbildschirm und ihre Apps oder einem zeilenbasierten Layout für Benutzer wählen, die Text bevorzugen.

Live Speech und Personal Voice Advance Speech Accessibility

Mit Live Speech auf dem „iPhone“, dem „iPad“ und dem Mac können Benutzer eingeben, was sie sagen möchten, und es bei Telefon-und „FaceTime“-Anrufen sowie bei persönlichen Gesprächen laut aussprechen lassen Gespräche. Benutzer können auch häufig verwendete Phrasen speichern, um sich schnell in Gespräche einzumischen.

Für Benutzer, bei denen das Risiko besteht, dass sie ihre Sprachfähigkeit verlieren – etwa solche, bei denen kürzlich Amyotrophe Lateralsklerose (ALS) oder andere Erkrankungen diagnostiziert wurden, die sich zunehmend auf die Sprachfähigkeit auswirken können – ist Personal Voice eine einfache und sichere Möglichkeit um eine Stimme zu erstellen, die wie sie klingt.
Benutzer können eine persönliche Stimme erstellen, indem sie zusammen mit einer zufälligen Reihe von Textansagen vorlesen, um 15 Minuten Audio auf dem „iPhone“ oder „iPad“ aufzunehmen. Diese Sprachbarrierefreiheitsfunktion nutzt maschinelles Lernen auf dem Gerät, um die Informationen der Benutzer privat und sicher zu halten, und lässt sich in Live Speech integrieren, sodass Benutzer mit ihrer persönlichen Stimme sprechen können, wenn sie sich mit ihren Lieben verbinden.

Weitere Funktionen

Für Benutzer, die blind oder sehbehindert sind, bietet der Erkennungsmodus in der Lupe „Zeigen und Sprechen“, das Text erkennt, auf den Benutzer zeigen, und ihn laut vorliest, um ihnen die Interaktion mit physischen Objekten wie Haushaltsgeräten zu erleichtern.

Weitere folgen…

Categories: IT Info