Apple hoje visualizou alguns novos recursos de acessibilidade que aparecerão no iOS 17. O Acesso Assistivo filtra certos aplicativos até seus”recursos essenciais”mais importantes para ajudar aqueles que têm deficiências cognitivas. Com o Acesso Assistivo, as experiências personalizadas de Telefone, FaceTime, Mensagens, Câmera, Fotos e Música são combinadas em um único aplicativo de Chamadas. Botões de alto contraste e rótulos de texto grandes são usados. Para usuários do iPhone que preferem se comunicar visualmente, o aplicativo Mensagens inclui um QWERTY somente emoji e a capacidade de gravar uma mensagem de vídeo para enviar aos entes queridos. Além disso, com o Acesso Assistivo, os usuários podem escolher entre um layout de tela inicial baseado em grade que é mais visual e um layout baseado em linha para aqueles que acham mais fácil processar texto.

O Acesso Assistivo torna o iPhone mais fácil de usar para pessoas com problemas cognitivos

Com o Live Speech, que estará disponível no iPhone, iPad e Mac, durante chamadas telefônicas e chamadas FaceTime, o usuário pode digitar o que quiser quer dizer e que seja falado em voz alta pelo seu dispositivo para que possa ser ouvido pelas outras partes na chamada de voz ou vídeo. Frases frequentemente repetidas pelo usuário podem ser salvas e inseridas rapidamente em conversas com amigos, familiares e colegas de trabalho. A Apple destaca que o Live Speech foi”projetado para oferecer suporte a milhões de pessoas em todo o mundo que não conseguem falar ou que perderam a fala com o tempo”.

O Live Speech permite que pessoas com deficiência de fala digitem o que desejam dizer em uma chamada de voz ou FaceTime e o telefone anunciará

Para aqueles que correm o risco de perder a voz (como observa a Apple, pode ser uma pessoa que foi recentemente diagnosticada com ELA (esclerose lateral amiotrófica ) ou tem uma doença que torna progressivamente mais difícil falar, um recurso chamado Personal Voice fará com que eles leiam um conjunto aleatório de texto por cerca de 15 minutos em um iPhone ou iPad. Esse recurso se integra ao já mencionado Live Speech para que um iPhone ou O usuário do iPad que perdeu a voz ainda pode falar com outras pessoas usando uma versão gravada de sua voz.

O Personal Voice permite que um usuário do iPhone grave textos e frases no dispositivo para usar com o recurso Live Speech mencionado anteriormente

Outro recurso de acessibilidade chamado”Apontar e falar na lupa”ajuda pessoas com deficiência visual a ler rótulos de texto nos botões usados ​​para executar itens domésticos. Usando a câmera traseira, o scanner LiDAR e o aprendizado de máquina no dispositivo, o usuário pode focar a câmera do iPhone no painel de controle de um forno de micro-ondas, por exemplo, e conforme o usuário move os dedos sobre a imagem de um botão no na tela sensível ao toque, o iPhone anunciará o texto associado a esse botão. Isso ajudará aqueles que não enxergam bem a ter controle sobre algumas partes de suas vidas.

Todos esses são recursos úteis sobre os quais poderemos ouvir mais quando a Apple apresentar o iOS 17 na WWDC em 5 de junho. O CEO da Apple, Tim Cook, disse:”Na Apple, sempre acreditamos que a melhor tecnologia é aquela desenvolvida para todos. tem a oportunidade de criar, comunicar e fazer o que ama.”

Categories: IT Info