Apple hat am Montag während seiner Keynote-Rede zur WWDC 2023 sein mit Spannung erwartetes Mixed-Reality-Headset Apple Vision Pro vorgestellt. Wenn Sie sich die Präsentation angesehen haben, ist Ihnen wahrscheinlich aufgefallen, dass Apples neues „Spatial Computing“-Gerät keine physische Tastatur, Maus oder Joystick-Steuerung verwendet, um Informationen einzugeben und die Funktionen des Geräts zu steuern.
Während einer kürzlich durchgeführten Entwicklersitzung hat Apple die integrierten Gesten demonstriert werden zur Interaktion mit dem Vision Pro verwendet:
Tippen – Wenn Sie Daumen und Zeigefinger gleichzeitig antippen, signalisieren Sie dem Headset, dass Sie auf ein Element im virtuellen Raum tippen möchten, in dem Sie sich befinden Anzeige auf dem Headset-Display. Einige Benutzer nennen dies inzwischen eine Prise. Apple erklärt, dass dies das virtuelle Äquivalent zum Tippen auf den Bildschirm Ihres iPhones ist.Doppeltippen – Ein Doppeltippen mit dem Finger führt eine Doppeltipp-Geste aus. (Erscheint logisch.)Pinch and Hold – Mit einer Pinch-und Hold-Geste können Sie Aufgaben wie das Hervorheben von Text auf dem Bildschirm ausführen.Pinch and Drag – Durch Kneifen und Ziehen Sie können sowohl horizontal als auch vertikal scrollen und sich in Fenstern bewegen. Je schneller Sie Ihre Hand bewegen, desto schneller scrollen Sie.Zoom – Zoom ist eine Geste, bei der beide Hände verwendet werden, eine davon zwei Gesten, die dies erfordern. Indem Sie Ihre Finger zusammenziehen und Ihre Hände auseinanderziehen, vergrößern Sie ein Element. Ziehen Sie ein Fenster an der Ecke, um die Fenstergröße anzupassen.Drehen – Drehen ist die andere beidhändige Geste. Drücken Sie einfach Ihre Finger zusammen und drehen Sie Ihre Hände. Dadurch können Sie Objekte im virtuellen Raum manipulieren, der auf dem Bildschirm des Headsets angezeigt wird.
Da das Vision Pro über mehrere Kameras verfügt, kann es Ihre Augenbewegungen verfolgen und mit höchster Genauigkeit erkennen, wohin Sie schauen. Ihre Augenposition hilft dabei, durch Handgesten auf die Elemente zu zielen, mit denen Sie interagieren möchten.
„Jazz-Hände“ sind Beim Vision Pro ist dies nicht erforderlich, da Handgesten subtil gehalten werden können, anstatt große Gesten auszuführen. Apple sagt den Benutzern sogar, dass sie ihre Hände im Schoß lassen können, da dies verhindert, dass ihre Arme ermüden, wenn sie vor ihnen hochgehalten werden. Andere Gesten sind ähnlich geringfügig; Beispielsweise ist eine kleine Pinch-Geste dasselbe wie ein Tippen. Dies alles ist auf die präzise Trackingfähigkeit der Kameras zurückzuführen.
Objekte in der Nähe und in der Ferne können einfach ausgewählt und manipuliert werden, indem Sie einfach Ihre Fingerspitzen ausstrecken und mit einem virtuellen Objekt interagieren.
Apple sagt, dass das Headset auch andere Handbewegungen unterstützt, einschließlich Luftschreiben. Leider sagen die wenigen Glücklichen, die die Gelegenheit hatten, Zeit mit einem Gerät zu verbringen, dass sie diese Funktion nicht ausprobieren konnten.
Gesten können auch „gestapelt“ oder zusammen verwendet werden. Um eine Zeichnung zu erstellen, schauen Sie einfach auf eine Stelle auf der virtuellen Leinwand, wählen Sie einen Pinsel mit der Hand aus und zeichnen Sie dann mit einer anderen Geste in die Luft.
Entwickler haben die Möglichkeit, benutzerdefinierte Gesten zur Verwendung in ihren Apps zu erstellen. Entwickler müssen sicherstellen, dass sich ihre Gesten von den Standardgesten des Systems oder von häufig verwendeten Handgesten unterscheiden. Auch Gesten sollen sich ohne Handbelastung wiederholen lassen.
Der Vision Pro ist auch mit Bluetooth-Trackpads und-Mäusen, Tastaturen und Gamecontrollern kompatibel. Auch sprachbasierte Diktier-und Suchtools sind Teil des Systems.