Dzisiaj firma Apple zaprezentowała nowe funkcje ułatwień dostępu poznawczego, mowy, wzroku, słuchu i mobilności, takie jak dostęp wspomagany, mowa na żywo, tryb wykrywania i inne. Nowe funkcje mają zostać wydane jeszcze w tym roku, więc najprawdopodobniej będą częścią nadchodzących aktualizacji iOS 17, iPadOS 17 i macOS 14.

Ponadto firma technologiczna ogłosiła również nowe funkcje zostanie wydany jeszcze w tym miesiącu, aby uczcić Światowy Dzień Świadomości Dostępności 18 maja.

4 nowe funkcje ułatwień dostępu pojawią się jeszcze w tym roku na iPhonie, iPadzie i komputerze Mac

Ułatwienia dostępu są wplecione w ekosystem Apple. Gigant technologiczny oferuje kilka potężnych, przydatnych funkcji ułatwień dostępu dla użytkowników z upośledzeniem wzroku, słuchu i mowy do wykonywania zadań w życiu codziennym i zawodowym, takich jak VoiceOver, wykrywanie drzwi, sterowanie głosowe, rozpoznawanie dźwięku i inne. Niedawno w systemie iOS 16.4 dodano nową funkcję ułatwień dostępu „Dim Flashing Lights”.

We współpracy z grupami reprezentującymi szerokie spektrum użytkowników niepełnosprawnych firma Apple opracowała cztery nowe funkcje ułatwień dostępu dla użytkowników z zaburzeniami poznawczymi, mowy, wzroku, słuchu i niepełnosprawnością ruchową, aby wywrzeć rzeczywisty wpływ na ich życie.

Oto nowe funkcje ułatwień poznawczych, wzrokowych, słuchowych i mobilności, które pojawią się na iPhonie, iPadzie i komputerze Mac później w 2023 roku.

Dostęp wspomagający dla użytkowników z upośledzeniem funkcji poznawczych

Dostępny na iOS i iPadOS, Assistive Access umożliwi użytkownikom z upośledzeniem funkcji poznawczych „łatwiejsze” korzystanie z iPhone’a i iPada, oferując konfigurowalne wrażenia, dzięki którym będą mogli robić zdjęcia, słuchać muzyki, łączyć się z rodziną i przyjaciółmi oraz więcej.

Telefon i FaceTime, które zostały połączone w jedną aplikację Połączenia, a także Wiadomości, Aparat, Zdjęcia i Muzyka. Ta funkcja oferuje wyróżniający się interfejs z przyciskami o wysokim kontraście i dużymi etykietami tekstowymi, a także narzędzia pomagające zaufanym osobom wspierającym w dostosowaniu sposobu działania do wspieranej osoby.

Live Speech dla osób niemówiących

Dostępna na iOS, iPadOS i macOS, nadchodząca funkcja Live Speech umożliwi niemówiącym użytkownikom udział w osobistych rozmowach i rozmowach telefonicznych za pośrednictwem typu zdolność mówienia. Użytkownicy będą również mogli zapisywać często używane odpowiedzi, aby szybko włączać się do rozmów.

Osobisty głos dla użytkowników zagrożonych utratą zdolności mówienia

Użytkownicy, u których zdiagnozowano ALS (stwardnienie zanikowe boczne), są narażeni na ryzyko utraty zdolności mówić lub z powodu innych warunków wpływających na ich zdolność mówienia, będą mogli używać Personal Voice do tworzenia syntetyzowanego głosu, który brzmi jak oni, do łączenia się z rodziną i przyjaciółmi.

Korzystając z iPhone’a lub iPada, użytkownicy będą mogli utwórz osobisty głos, czytając losowy zestaw tekstów, aby nagrać 15 minut dźwięku. Zostanie również zintegrowany z Live Speech, dzięki czemu będą mogli odpowiadać własnym głosem.

Użytkownicy muszą pamiętać, że „Personal Voice można tworzyć za pomocą iPhone’a, iPada i komputera Mac z układem Apple i będzie on dostępny w języku angielskim”.

Tryb wykrywania dla użytkowników z wadami wzroku

Wykorzystując technologię „wskaż i mów” w Lupie, nowy tryb wykrywania umożliwi użytkownikom niewidomym lub niedowidzącym interakcję z obiektami z kilkoma etykietami tekstowymi.

Jednak ta funkcja będzie dostępna w modelach iPhone’a Pro, ponieważ wykorzystuje skaner LiDAR wraz z funkcją Point and Speak, która łączy dane wejściowe z aplikacji Aparat i uczenie maszynowe na urządzeniu w celu odczytania tekstu na głos.

Point and Speak będzie dostępny na urządzeniach iPhone i iPad ze skanerem LiDAR w języku angielskim, francuskim, włoskim, niemieckim, hiszpańskim, portugalskim, chińskim, kantońskim, koreańskim, japońskim i ukraińskim.

Inne ulepszenia 

Możliwość parowania aparatów słuchowych Made for iPhone bezpośrednio z komputerem Mac. *Użytkownicy będą mogli sparować aparaty słuchowe Made for iPhone z wybranymi urządzeniami Mac z chipem M1 i wszystkimi urządzeniami Mac z chipem M2. Voice Control zyskuje sugestie fonetyczne dotyczące edycji tekstu w języku angielskim, hiszpańskim, francuskim i niemieckim. Voice Control Guide zawiera porady i wskazówki dotyczące używania poleceń głosowych. Użytkownicy Switch Control będą mogli zamienić dowolny przełącznik w kontroler do gier. Integracja rozmiaru tekstu z aplikacjami macOS, takimi jak Wiadomości, Poczta, Finder, Notatki i Kalendarz. Możliwość wstrzymywania obrazów z ruchomymi elementami, takimi jak GIF-y. Voiceover zyskuje bardziej naturalny dźwięk Siri.

CEO Apple, Tim Cook powiedział:

„W Apple zawsze wierzyliśmy, że najlepsza technologia to technologia stworzona dla wszystkich. Dziś z radością udostępniamy niesamowite nowe funkcje, które opierają się na naszej długiej historii udostępniania technologii, dzięki czemu każdy ma możliwość tworzenia, komunikowania się i robienia tego, co kocha”.

Funkcje ułatwień dostępu pojawią się w tym miesiącu z okazji Światowego Dnia Świadomości Dostępności

18 maja na całym świecie obchodzony jest Światowy Dzień Świadomości Dostępności, aby szerzyć wiedzę na temat udostępniania sieci użytkownikom niepełnosprawnym. W tym duchu Apple wprowadzi w tym tygodniu następującą nową funkcję ułatwień dostępu:

SignTime zostanie uruchomiony w Niemczech, Włoszech, Hiszpanii i Korei Południowej 18 maja, aby połączyć klientów Apple Store i Apple Support z językiem migowym na żądanie tłumacze. Jest już dostępny w Stanach Zjednoczonych, Wielkiej Brytanii, Francji, Japonii i Australii. Sesje informacyjne w wybranych lokalizacjach Apple Store, aby pomóc klientom odkryć funkcje ułatwień dostępu. Skróty aktualizują się o funkcję Zapamiętaj tę funkcję, aby utworzyć wizualny dziennik w Notatkach dla użytkowników z upośledzeniem funkcji poznawczych. Treści związane z dostępną technologią lub jej wpływem będą pojawiać się w Apple Podcasts, aplikacji Apple TV, Apple Books i Apple Music. Apple Fitness+, trener Jamie-Ray Hartshorne obejmuje ASL. App Store przedstawi trzech liderów społeczności niepełnosprawnych: Aloysiusa Gana, Jordyn Zimmerman i Bradleya Heaven.

Categories: IT Info