Apple hoje pré-visualizou uma ampla gama de novos recursos de acessibilidade para iPhone, iPad e Mac que devem chegar ainda este ano.
A Apple diz que os”novos recursos de software para funções cognitivas, fala e acessibilidade de visão estão chegando ainda este ano”, o que sugere fortemente que eles farão parte do iOS 17, iPadOS 17 e macOS 14. Espera-se que os novos sistemas operacionais sejam visualizados na WWDC no início de junho antes do lançamento no outono.
Acesso Assistivo
O Acesso Assistivo destila aplicativos e experiências iPhone e iPad em seus principais recursos. O modo inclui uma experiência personalizada para telefone e FaceTime, que são combinados em um único aplicativo de chamadas, além de mensagens, câmera, fotos e música. O recurso oferece interface simplificada com botões de alto contraste e grandes rótulos de texto, além de ferramentas para ajudar a personalizar a experiência. Por exemplo, os usuários podem escolher entre um layout mais visual baseado em grade para sua tela inicial e aplicativos ou um layout baseado em linha para usuários que preferem texto.
Fala ao vivo e voz pessoal Acessibilidade de fala avançada
Fala ao vivo no iPhone, iPad e Mac permite que os usuários digitem o que desejam dizer e o tenham falado em voz alta durante chamadas telefônicas e FaceTime, bem como conversas pessoais. Os usuários também podem salvar frases comumente usadas para entrar em conversas rapidamente.
Usuários em risco de perder a capacidade de falar, como aqueles com diagnóstico recente de esclerose lateral amiotrófica (ALS), podem usar o Personal Voice para criar uma voz digital que soe como eles. Os usuários simplesmente precisam ler junto com um conjunto aleatório de prompts de texto para gravar 15 minutos de áudio em um iPhone ou iPad. O recurso usa aprendizado de máquina no dispositivo para manter as informações dos usuários seguras e privadas e se integra ao Live Speech para que os usuários possam falar com sua voz pessoal.
Modo de detecção na lupa e apontar e falar
No aplicativo Magnifier, Point and Speak ajuda os usuários a interagir com objetos físicos que possuem vários rótulos de texto. Por exemplo, ao usar um eletrodoméstico, apontar e falar combina a entrada do aplicativo Câmera, o scanner LiDAR e o aprendizado de máquina no dispositivo para anunciar o texto nos botões conforme os usuários movem o dedo pelo teclado.
Apontar e falar é integrado ao aplicativo Lupa no iPhone e iPad, funciona com o VoiceOver e pode ser usado com outros recursos do Lupa, como Detecção de Pessoas, Detecção de Portas e Descrições de Imagens para ajudar os usuários a navegar em seu ambiente físico com mais eficiência.
Outros recursos
Usuários surdos ou com deficiência auditiva podem emparelhar dispositivos auditivos Made for iPhone diretamente a um Mac com opções de personalização específicas. O Controle por Voz ganha sugestões fonéticas para edição de texto para que os usuários que digitam com a voz possam escolher a palavra certa entre várias que podem soar semelhantes, como”faça”,”devido”e”orvalho”. O Guia de controle de voz ajuda os usuários a aprender dicas e truques sobre o uso de comandos de voz como alternativa ao toque e à digitação. O Controle Assistivo agora pode ser ativado para transformar qualquer switch em um controlador de videogame virtual. O tamanho do texto agora é mais fácil de ajustar em aplicativos do Mac, incluindo Finder, Mensagens, Mail, Calendário e Notas. Os usuários sensíveis a animações rápidas podem pausar imagens automaticamente com elementos em movimento, como GIFs, no Mensagens e no Safari. Os usuários podem personalizar a velocidade com que a Siri fala com eles, com opções que variam de 0,8x a 2x. Atalhos ganha uma nova ação”Lembrar disso”, ajudando usuários com deficiências cognitivas a criar um diário visual no aplicativo Notes.