Az Apple ma megtekintett néhány új akadálymentesítési funkciót, amelyek az iOS 17 rendszerben fognak megjelenni. Az Assistive Access bizonyos alkalmazásokat a legalapvetőbb „alapvető funkciók” szerint szűr, hogy segítsen a kognitív fogyatékkal élőknek. Az asszisztens hozzáféréssel a testreszabott telefon, FaceTime, Messages, kamera, fényképek és zenei élmények egyetlen Calls alkalmazásban egyesülnek. Nagy kontrasztú gombok és nagy szöveges címkék használatosak. Azok az iPhone-felhasználók, akik inkább vizuálisan szeretnének kommunikálni, az Üzenetek alkalmazás tartalmaz egy csak hangulatjeleket tartalmazó QWERTY-t, valamint egy videoüzenet rögzítésének lehetőségét, amelyet elküldhet szeretteinek. Ezenkívül az asszisztens hozzáféréssel a felhasználók választhatnak egy vizuálisabb, rácsalapú kezdőképernyő-elrendezés és egy sor alapú elrendezés között azok számára, akik könnyebben feldolgozzák a szöveget.
Az asszisztens hozzáférés megkönnyíti az iPhone használatát kognitív problémákkal küzdők számára.
Az iPhone, iPad és Mac készülékeken elérhető élő beszéddel telefonhívások és FaceTime-hívások közben a felhasználó beírhatja, amit akar. ki akarja mondani és hangosan kimondani a készülékén, hogy a többi fél hallhassa a hang-vagy videohívásban. A felhasználó által gyakran ismételt kifejezések menthetők, és gyorsan beilleszthetők a barátokkal, családtagokkal és munkatársakkal folytatott beszélgetésekbe. Az Apple rámutat, hogy az Élő beszéd funkciót”olyan emberek millióinak támogatására tervezték világszerte, akik nem tudnak beszélni, vagy akik idővel elvesztették beszédüket.”
Az élő beszéd lehetővé teszi a beszédfogyatékkal élők számára, hogy beírják, amit akarnak. hang-vagy FaceTime-hívás közben kimondani, és a telefon bejelenti.
Azoknak, akiknél fennáll a hangvesztés veszélye (ahogy az Apple megjegyzi, olyan személyről lehet szó, akinél nemrégiben ALS-t (amiotrófiás laterális szklerózis) diagnosztizáltak ) vagy olyan betegsége van, amely fokozatosan megnehezíti a beszédet, a Personal Voice nevű funkció segítségével körülbelül 15 percig véletlenszerű szöveget olvasnak fel iPhone vagy iPad készüléken. Ez a funkció integrálódik a fent említett élő beszéddel, így egy iPhone vagy iPad készüléken Azok az iPad-felhasználók, akik elvesztették a hangjukat, továbbra is beszélhetnek másokkal a hangjuk rögzített verziójával.
A Personal Voice lehetővé teszi az iPhone-felhasználók számára, hogy szövegeket és kifejezéseket rögzítsenek az eszközön, hogy a fent említett Live Speech funkcióval használhassák
Egy másik kisegítő lehetőség, a”Mutatás és beszélj a nagyítóban”segít a látássérülteknek elolvasni a háztartási cikkek futtatásához használt gombokon található szöveges címkéket. A hátsó kamera, a LiDAR szkenner és az eszközön történő gépi tanulás segítségével a felhasználó például egy mikrohullámú sütő vezérlőpultjára fókuszálhatja iPhone kameráját, és miközben a felhasználó mozgatja az ujjait egy gomb képe fölött. az érintőképernyőn, az iPhone bejelenti az adott gombhoz tartozó szöveget. Ez segít azoknak, akik nem látnak jól, továbbra is irányítani tudják életük bizonyos részeit.
Ezek mind olyan hasznos funkciók, amelyekről többet hallhatunk, amikor az Apple bemutatja az iOS 17 előzetesét a WWDC-n június 5-én. Tim Cook, az Apple vezérigazgatója így nyilatkozott:”Az Apple-nél mindig is úgy gondoltuk, hogy a legjobb technológia a mindenki számára készült technológia. Ma már izgatottak vagyunk, hogy megoszthatunk olyan hihetetlen új funkciókat, amelyek a technológia hozzáférhetővé tételének hosszú történetére épülnek, hogy mindenki lehetősége van arra, hogy alkossanak, kommunikáljanak, és azt csinálják, amit szeretnek.”