Apple dzisiaj podgląd niektórych nowych funkcji ułatwień dostępu, które pojawią się w iOS 17. Dostęp wspomagający filtruje niektóre aplikacje do ich najbardziej”niezbędnych funkcji”, aby pomóc osobom z upośledzeniem poznawczym. Dzięki dostępowi wspomagającemu spersonalizowane funkcje Telefonu, FaceTime, Wiadomości, Aparatu, Zdjęcia i Muzyki są połączone w jedną aplikację Rozmowy. Używane są przyciski o wysokim kontraście i duże etykiety tekstowe. Dla użytkowników iPhone’a, którzy wolą komunikować się wizualnie, aplikacja Wiadomości zawiera QWERTY tylko z emotikonami i możliwość nagrania wiadomości wideo, aby wysłać ją do bliskich. Ponadto dzięki dostępowi wspomagającemu użytkownicy mogą wybierać między układem ekranu głównego opartym na siatce, który jest bardziej wizualny, a układem opartym na wierszach dla tych, którym łatwiej jest przetwarzać tekst.
Assistive Access ułatwia korzystanie z iPhone’a osobom z problemami poznawczymi
Dzięki funkcji Live Speech, która będzie dostępna na iPhonie, iPadzie i komputerze Mac, podczas rozmów telefonicznych i FaceTime użytkownik może wpisać to, co chce chce powiedzieć i poprosić o jego wypowiedzenie na głos przez swoje urządzenie, tak aby inni uczestnicy rozmowy głosowej lub wideo mogli to usłyszeć. Zwroty często powtarzane przez użytkownika można zapisać i szybko wstawić do rozmów ze znajomymi, rodziną i współpracownikami. Apple podkreśla, że funkcja Live Speech została „zaprojektowana, aby wspierać miliony ludzi na całym świecie, którzy nie są w stanie mówić lub z czasem utracili mowę”.
Live Speech umożliwia osobom z trudnościami w mówieniu pisanie tego, co chcą powiedzieć podczas połączenia głosowego lub FaceTime, a telefon to ogłosi
Dla osób zagrożonych utratą głosu (jak zauważa Apple, może to być osoba, u której niedawno zdiagnozowano ALS (stwardnienie zanikowe boczne ) lub cierpi na chorobę, która stopniowo utrudnia mówienie, funkcja o nazwie Personal Voice pozwoli im czytać losowy zestaw tekstów przez około 15 minut na iPhonie lub iPadzie. Ta funkcja integruje się ze wspomnianą funkcją Live Speech, dzięki czemu iPhone lub Użytkownik iPada, który utracił głos, może nadal rozmawiać z innymi, korzystając z nagranej wersji ich głosu.
Osobisty głos pozwala użytkownikowi iPhone’a nagrywać teksty i wyrażenia na urządzeniu, aby używać go ze wspomnianą funkcją Live Speech
Kolejna funkcja ułatwień dostępu o nazwie „Wskaż i mów w lupie” pomaga osobom niedowidzącym czytać etykiety tekstowe na przyciskach używanych do uruchamiania artykułów gospodarstwa domowego. Korzystając z tylnej kamery, skanera LiDAR i uczenia maszynowego na urządzeniu, użytkownik może na przykład ustawić ostrość aparatu iPhone’a na panelu sterowania kuchenki mikrofalowej, a gdy użytkownik przesuwa palcami po obrazie przycisku na ekranie dotykowym, iPhone ogłosi tekst powiązany z tym przyciskiem. Pomoże to osobom, które nie widzą dobrze, nadal mieć kontrolę nad niektórymi częściami ich życia.
O wszystkich tych przydatnych funkcjach możemy usłyszeć więcej, gdy Apple zaprezentuje iOS 17 na WWDC 5 czerwca. Tim Cook, dyrektor generalny Apple, mówi: „W Apple zawsze wierzyliśmy, że najlepsza technologia to technologia stworzona dla wszystkich. Dziś cieszymy się, że możemy podzielić się niesamowitymi nowymi funkcjami, które opierają się na naszej długiej historii udostępniania technologii, tak aby każdy ma możliwość tworzenia, komunikowania się i robienia tego, co kocha”.