Apple の今日の iOS 17 で登場するいくつかの新しいアクセシビリティ機能をプレビューしました。 Assistive Access は、認知障害のあるユーザーを支援するために、特定のアプリを最も「重要な機能」に絞り込みます。 Assistive Access を使用すると、カスタマイズされた電話、FaceTime、メッセージ、カメラ、写真、音楽のエクスペリエンスがすべて 1 つの通話アプリに統合されます。ハイコントラストのボタンと大きなテキストラベルが使用されています。視覚的にコミュニケーションしたいiPhoneユーザーのために、メッセージアプリには絵文字のみのQWERTYと、愛する人に送信するビデオメッセージを録画する機能が含まれています。さらに、Assistive Access を使用すると、ユーザーは、より視覚的なグリッドベースのホーム画面レイアウトと、テキストの処理が容易な行ベースのレイアウトを選択できます。
Assistive Access により、認知機能に問題がある人にとって iPhone が使いやすくなります。
iPhone、iPad、Mac で利用できる Live Speech を使用すると、ユーザーは通話中や FaceTime 通話中に入力できる内容を入力できます。と言い、自分のデバイスで大声で話して、音声通話またはビデオ通話の相手に聞こえるようにしたいと考えています。ユーザーがよく繰り返すフレーズを保存し、友人、家族、同僚との会話にすぐに挿入できます。 Apple は、Live Speech が「話すことができない、または時間の経過とともに言語を失った世界中の何百万人もの人々をサポートするように設計されている」と指摘しています。
Live Speech を使用すると、会話障害を持つ人が必要な内容を入力できます。音声または FaceTime 通話で言うと、電話がその旨をアナウンスします
声を失う危険がある人 (Apple が指摘しているように、最近 ALS (筋萎縮性側索硬化症) と診断された人である可能性があります) ) または、徐々に話すことが難しくなる病気を患っている場合は、パーソナル ボイスと呼ばれる機能を使用して、iPhone または iPad でランダムなテキストのセットを約 15 分間読み上げます。この機能は、前述の Live Speech と統合されているため、iPhone または声を失った iPad ユーザーでも、録音した自分の声を使って他の人と話すことができます。
パーソナル ボイスを使用すると、iPhone ユーザーはテキストやフレーズをデバイス上に録音し、前述のライブ スピーチ機能で使用できます。
「拡大鏡でポイント アンド スピーク」と呼ばれる別のアクセシビリティ機能は、視覚障害のある人が家庭用品の実行に使用されるボタンのテキスト ラベルを読むのに役立ちます。背面カメラ、LiDAR スキャナー、オンデバイス機械学習を使用すると、ユーザーは、たとえば電子レンジのコントロール パネルに自分の iPhone カメラの焦点を合わせ、電子レンジのボタンの画像上で指を動かすことができます。タッチスクリーンを押すと、iPhone はそのボタンに関連付けられたテキストをアナウンスします。これにより、目の見えない人でも生活の一部をコントロールできるようになります。
これらはすべて、6 月 5 日の WWDC で Apple が iOS 17 をプレビューするときに詳しく聞くことができる便利な機能です。 Apple CEO のティム・クック氏は、「Apple では、最高のテクノロジーとは、すべての人のために構築されたテクノロジーであると常に信じてきました。今日、私たちは、テクノロジーを誰もが利用できるようにしてきた当社の長い歴史に基づいて構築された、素晴らしい新機能を共有できることに興奮しています」と述べています。好きなことを創作し、コミュニケーションし、行う機会があります。」