Aujourd’hui, Apple a présenté en avant-première de nouvelles fonctionnalités d’accessibilité cognitives, vocales, visuelles, auditives et mobiles telles que l’accès assisté, la parole en direct, le mode de détection, etc. Les nouvelles fonctionnalités devraient sortir plus tard cette année, elles feront donc très probablement partie des prochaines mises à jour iOS 17, iPadOS 17 et macOS 14.

De plus, la société technologique a également annoncé de nouvelles fonctionnalités sortira plus tard ce mois-ci pour célébrer la Journée mondiale de sensibilisation à l’accessibilité le 18 mai.

4 nouvelles fonctionnalités d’accessibilité seront disponibles plus tard cette année sur iPhone, iPad et Mac

L’accessibilité fait partie intégrante de l’écosystème d’Apple. Le géant de la technologie offre plusieurs fonctionnalités d’accessibilité puissantes et utiles aux utilisateurs souffrant de troubles visuels, auditifs et de la parole pour effectuer des tâches de leur vie quotidienne et professionnelle telles que la voix off, la détection de porte, le contrôle vocal, la reconnaissance sonore, etc. Récemment, iOS 16.4 a ajouté la nouvelle fonctionnalité d’accessibilité”Dim Flashing Lights”.

En collaboration avec des groupes représentant un large éventail d’utilisateurs handicapés, Apple a développé quatre nouvelles fonctionnalités d’accessibilité pour les utilisateurs souffrant de troubles cognitifs, vocaux, visuels, troubles de l’ouïe et de la mobilité pour créer un impact réel sur leur vie.

Voici les nouvelles fonctionnalités d’accessibilité cognitive, visuelle, auditive et de mobilité qui seront disponibles sur iPhone, iPad et Mac plus tard en 2023. 

Accès d’assistance pour les utilisateurs souffrant de troubles cognitifs

Disponible sur iOS et iPadOS, Assistive Access permettra aux utilisateurs souffrant de troubles cognitifs d’utiliser leur iPhone et iPad”avec plus de facilité”en offrant une expérience personnalisable afin qu’ils puissent prendre des photos, écouter de la musique, se connecter avec leur famille et leurs amis, et plus.

Téléphone et FaceTime, qui ont été combinés en une seule application Appels, ainsi que Messages, Appareil photo, Photos et Musique. La fonctionnalité offre une interface distincte avec des boutons à contraste élevé et de grandes étiquettes de texte, ainsi que des outils pour aider les supporters de confiance à personnaliser l’expérience pour la personne qu’ils soutiennent.

Live Speech pour les personnes non parlantes

Disponible sur iOS, iPadOS et macOS, la prochaine fonctionnalité Live Speech permettra aux utilisateurs non parlants de participer à des conversations personnelles et à des appels téléphoniques via la capacité de parler. Les utilisateurs pourront également enregistrer leurs réponses fréquemment utilisées pour intervenir rapidement dans les conversations.

Voix personnelle pour les utilisateurs à risque de perdre la capacité de parler

Les utilisateurs diagnostiqués avec la SLA (sclérose latérale amyotrophique) risquent de perdre leur capacité parler ou d’autres conditions affectant leur capacité à parler pourront utiliser Voix personnelle pour créer une voix synthétisée qui leur ressemble pour se connecter avec leur famille et leurs amis.

À l’aide de l’iPhone ou de l’iPad, les utilisateurs pourront créez une voix personnelle en lisant un ensemble aléatoire de textes pour enregistrer 15 minutes d’audio. Il sera également intégré à Live Speech afin qu’ils puissent répondre avec leur propre voix.

Les utilisateurs doivent garder à l’esprit que”Personal Voice peut être créé à l’aide d’un iPhone, d’un iPad et d’un Mac avec du silicium Apple, et sera disponible en anglais.”

Mode de détection pour les utilisateurs malvoyants

En utilisant la technologie pointer et parler de la loupe, le nouveau mode de détection permettra aux utilisateurs aveugles ou malvoyants d’interagir avec des objets avec plusieurs étiquettes de texte.

Cependant, cette fonctionnalité sera disponible sur les modèles d’iPhone Pro car elle utilise un scanner LiDAR avec Point and Speak qui combine l’entrée de l’application Appareil photo et l’apprentissage automatique sur l’appareil pour lire le texte à voix haute.

Point and Speak sera disponible sur les appareils iPhone et iPad avec le scanner LiDAR en anglais, français, italien, allemand, espagnol, portugais, chinois, cantonais, coréen, japonais et ukrainien.

Autres améliorations 

Possibilité de jumeler des appareils auditifs Made for iPhone directement à Mac. *Les utilisateurs pourront coupler des appareils auditifs Made for iPhone avec certains appareils Mac avec puce M1 et tous les appareils Mac avec puce M2. Voice Control bénéficie de suggestions phonétiques pour l’édition de texte en anglais, espagnol, français et allemand. Le guide de commande vocale contient des conseils et astuces sur l’utilisation des commandes vocales. Les utilisateurs de Switch Control pourront transformer n’importe quel commutateur en contrôleur de jeu. Intégration de la taille du texte avec les applications macOS telles que Messages, Mail, Finder, Notes et Calendrier. Possibilité de mettre en pause des images avec des éléments en mouvement comme des GIF. La voix off obtient un Siri plus naturel.

PDG d’Apple, Tim Cook a déclaré :

« Chez Apple, nous avons toujours pensé que la meilleure technologie était une technologie conçue pour tout le monde. Aujourd’hui, nous sommes ravis de partager de nouvelles fonctionnalités incroyables qui s’appuient sur notre longue histoire de rendre la technologie accessible, afin que chacun ait la possibilité de créer, de communiquer et de faire ce qu’il aime. »

Des fonctionnalités d’accessibilité sortent ce mois-ci à l’occasion de la Journée mondiale de sensibilisation à l’accessibilité

Le 18 mai, la Journée mondiale de sensibilisation à l’accessibilité est célébrée dans le monde entier pour sensibiliser les utilisateurs à rendre le Web accessible aux utilisateurs handicapés. Dans cet esprit, Apple présentera cette semaine la nouvelle fonctionnalité d’accessibilité suivante :

SignTime sera lancé en Allemagne, en Italie, en Espagne et en Corée du Sud le 18 mai pour connecter les clients de l’Apple Store et de l’assistance Apple à la langue des signes à la demande. interprètes. Il est déjà disponible aux États-Unis, au Royaume-Uni, en France, au Japon et en Australie. Séances d’information dans certains magasins Apple Store pour aider les clients à découvrir les fonctionnalités d’accessibilité. Mise à jour des raccourcis avec Mémoriser Cette fonctionnalité permet de créer un journal visuel dans Notes pour les utilisateurs souffrant de troubles cognitifs. Le contenu lié à la technologie accessible ou à son impact figurera sur Apple Podcasts, l’application Apple TV, Apple Books et Apple Music. Apple Fitness+, l’entraîneur Jamie-Ray Hartshorne intègre l’ASL. L’App Store mettra en lumière trois leaders de la communauté des personnes handicapées : Aloysius Gan, Jordyn Zimmerman et Bradley Heaven.

Categories: IT Info