Apple aujourd’hui présenté quelques nouvelles fonctionnalités d’accessibilité qui apparaîtront dans iOS 17. L’accès assisté filtre certaines applications jusqu’à leurs”fonctionnalités essentielles”pour aider les personnes souffrant de troubles cognitifs. Avec l’accès assisté, les expériences personnalisées de téléphone, FaceTime, messages, appareil photo, photos et musique sont toutes combinées dans une seule application d’appels. Des boutons à contraste élevé et de grandes étiquettes de texte sont utilisés. Pour les utilisateurs d’iPhone qui préfèrent communiquer visuellement, l’application Messages comprend un QWERTY emoji uniquement et la possibilité d’enregistrer un message vidéo à envoyer à leurs proches. De plus, avec Assistive Access, les utilisateurs peuvent choisir entre une disposition d’écran d’accueil basée sur une grille qui est plus visuelle et une disposition basée sur des lignes pour ceux qui trouvent qu’il est plus facile de traiter le texte.
Assistive Access facilite l’utilisation de l’iPhone pour ceux qui ont des problèmes cognitifs
Avec Live Speech, qui sera disponible sur iPhone, iPad et Mac, pendant les appels téléphoniques et les appels FaceTime, un utilisateur peut taper ce qu’il veut dire et le faire dire à haute voix par son appareil afin qu’il puisse être entendu par les autres parties lors de l’appel vocal ou vidéo. Les phrases souvent répétées par l’utilisateur peuvent être enregistrées et rapidement insérées dans des conversations avec des amis, la famille et des collègues. Apple souligne que Live Speech est”conçu pour aider des millions de personnes dans le monde qui sont incapables de parler ou qui ont perdu la parole au fil du temps”.
Live Speech permet aux personnes ayant des troubles de la parole de taper ce qu’elles veulent dire lors d’un appel vocal ou FaceTime et le téléphone l’annoncera
Pour ceux qui risquent de perdre la voix (comme le note Apple, il pourrait s’agir d’une personne qui a récemment reçu un diagnostic de SLA (sclérose latérale amyotrophique ) ou souffre d’une maladie qui rend progressivement la parole plus difficile, une fonctionnalité appelée Personal Voice leur fera lire un ensemble aléatoire de texte pendant environ 15 minutes sur un iPhone ou un iPad. Cette fonctionnalité s’intègre avec le Live Speech susmentionné afin qu’un iPhone ou L’utilisateur d’iPad qui a perdu sa voix peut toujours parler avec d’autres personnes en utilisant une version enregistrée de sa voix.
Voix personnelle permet à un utilisateur d’iPhone d’enregistrer des textes et des phrases sur l’appareil à utiliser avec la fonction Live Speech susmentionnée
Une autre fonctionnalité d’accessibilité appelée”Pointer et parler dans la loupe”aide les personnes malvoyantes à lire les étiquettes de texte sur les boutons utilisés pour faire fonctionner les articles ménagers. À l’aide de la caméra arrière, du scanner LiDAR et de l’apprentissage automatique sur l’appareil, l’utilisateur peut focaliser la caméra de son iPhone sur le panneau de commande d’un four à micro-ondes par exemple, et lorsque l’utilisateur déplace ses doigts sur l’image d’un bouton sur l’écran tactile, l’iPhone annoncera le texte associé à ce bouton. Cela aidera ceux qui ne voient pas bien à garder le contrôle sur certaines parties de leur vie.
Ce sont toutes des fonctionnalités utiles dont nous pourrions en savoir plus lorsqu’Apple présentera iOS 17 à la WWDC le 5 juin. Le PDG d’Apple, Tim Cook, a déclaré: « Chez Apple, nous avons toujours cru que la meilleure technologie est une technologie conçue pour tout le monde. Aujourd’hui, nous sommes ravis de partager de nouvelles fonctionnalités incroyables qui s’appuient sur notre longue histoire de rendre la technologie accessible, afin que tout le monde a la possibilité de créer, de communiquer et de faire ce qu’il aime.”