Apple は月曜日の WWDC 2023 基調講演で、待望の Apple Vision Pro 複合現実ヘッドセットを発表しました。このプレゼンテーションをご覧になった方は、Apple の新しい「空間コンピューティング」デバイスが、情報の入力やデバイスの機能の制御に物理的なキーボード、マウス、ジョイスティック コントローラーを使用していないことに気づいたでしょう。

最近の開発者セッションで、Apple は組み込みジェスチャをデモンストレーションしました。 Vision Pro と対話するために使用されます:

タップ – 親指と人差し指を一緒にタップすると、仮想空間内の要素をタップするようヘッドセットに通知されます。ヘッドセットのディスプレイで視聴します。一部のユーザーはこれをピンチだと言い始めています。 Apple は、これは iPhone の画面をタップするときと実質的に同等であると説明しています。ダブルタップ – 指を 2 回タップすると、ダブルタップ ジェスチャが実行されます。 (論理的だと思われます。)ピンチ アンド ホールド – ピンチ アンド ホールド ジェスチャを使用すると、画面上のテキストをハイライト表示するなどのタスクを実行できます。ピンチ アンド ドラッグ – ピンチしてドラッグすることで、水平方向と垂直方向の両方でウィンドウ内をスクロールしたり移動したりできるようになります。手を速く動かすほど、スクロールも速くなります。ズーム – ズームは両手を使用するジェスチャです。これを必要とする 2 つのジェスチャ。指をつまんで両手を離すと、要素が拡大表示されます。ウィンドウの角をドラッグしてウィンドウ サイズを調整します。回転 – 回転はもう 1 つの両手ジェスチャです。指をつまんで手を回転させるだけです。これにより、ヘッドセットの画面に表示される仮想空間内のオブジェクトを操作できるようになります。

Vision Pro には複数のカメラが搭載されているため、目の動きを追跡し、どこを見ているのかを正確に検出できます。目の位置は、手のジェスチャーを通じて操作したい要素をターゲットにするのに役立ちます。

「ジャズハンド」とはVision Pro では、大げさなジェスチャーをする代わりに、手のジェスチャーを控えめに保つことができるため、その必要はありません。 Appleは、ユーザーの前にかざされて腕が疲れるのを防ぐため、手を膝の上に置いてもよいとさえ言っている。他のジェスチャーも同様に軽微です。たとえば、小さなピンチ ジェスチャはタップと同じです。これはすべて、カメラの正確な追跡能力によるものです。

指先を伸ばして仮想オブジェクトを操作するだけで、近くのオブジェクトも遠くのオブジェクトも簡単に選択して操作できます。

Apple によると、このヘッドセットはエア タイピングなど他の手の動きもサポートしているという。残念ながら、あるユニットを使用する機会があった幸運な少数の人は、この機能を試すことができなかったと述べています。

ジェスチャは「積み重ね」たり、一緒に使用したりすることもできます。描画を作成するには、仮想キャンバス上のスポットを見て、手でブラシを選択し、別のジェスチャーを使用して空中に描画するだけです。

開発者は、アプリで使用するカスタム ジェスチャを作成できるようになります。開発者は、自分のジェスチャが、システムのデフォルトのジェスチャや人々が使用する一般的な手のジェスチャとは異なることを確認する必要があります。また、手の負担なくジェスチャーを繰り返すことができる必要があります。

Vision Pro は、Bluetooth トラックパッド、マウス、キーボード、ゲーム コントローラーとも互換性があります。音声ベースのディクテーションおよび検索ツールもシステムの一部です。

Categories: IT Info