Vision Pro 上的應用

甚至在 Apple Vision Pro 發布之前,研究人員就一直在研究蘋果為耳機選擇的控件的有效性。

正如在 WWDC 上首次透露的那樣,Vision Pro 會自動選擇用戶在其顯示屏上看到的任何內容。然後,其周圍的攝像頭會檢測到用戶何時進行捏合動作以有效地點擊或單擊對象。

說“我們不知道”蘋果會使用這種技術被稱為“凝視和捏合”,研究人員在 2022 年對這個想法進行了實驗。具體來說,他們將其與用戶首先使用他們所謂的“手線”指向一個對象,然後捏合以激活它的系統進行了比較。

在關於研究結果的 Twitter 帖子中,奧胡斯大學的 Ken Pfeuffer 教授總結了結果。

根據 Pfeuffer 教授的說法,“如果目標符合眼動儀的精度,凝視+捏合會更快且更少的體力消耗。”換句話說,如果耳機能夠精確地跟踪用戶的視線,那麼這種凝視和捏合就是最好的使用方法。

也許要等到 Vision Pro 上市後我們才能真正知道答案,但最初的評論者聲稱視線追踪功能很好。蘋果擁有一系列與之相關的專利,其中包括 2019 年的一項。

凝視和捏合只是總體上更好,因為至少在一種情況下它可以被 Handray 選項擊敗。具體來說,Pfeuffer 教授對其和同事的工作進行了總結:

速度:Gaze+Pinch (2.5s) > Handray (4.6s) 錯誤:Handray (1%) > Gaze+Pinch (3%) 偏好:凝視+捏合 (6/16) > Handray (0/16)

因此,在對選擇對象並選擇它所需的時間進行測試時,Apple 使用的凝視和捏合方法要快得多。但為了正確選擇、選擇所需的內容,更簡單的 Handray 選項會獲勝。

只是,在對參與測試的人員進行的一項調查中,沒有人更喜歡 handray 方法。 16 名接受調查的人中,約有 6 人確實更喜歡凝視和捏捏。

Twitter 帖子中直接引用的研究是一篇名為“A Fitts’ Law Study of Gaze-Hand Alignment for Selection in 3D User Interfaces”的研究論文。摘要可以在此處閱讀

在討論的其他地方,Pfeuffer 教授還鏈接了一篇名為“PalmGazer:增強現實中的單手眼手菜單”的論文。該全文可以在線閱讀。

Apple Vision Pro 的上市日期還有幾個月的時間,該公司正在不斷開發它。但它不太可能改變像用戶使用該技術的方式這樣根本性的東西,尤其是當我們有理由假設蘋果在開發該設備的這些年裡進行了類似的研究時。

Categories: IT Info