Meta Quest führt experimentelles „Direct Touch“-Hand-Tracking ein

0
118
Meta

Rudimentäres Hand-Tracking kam im Dezember 2019 für die Meta Quest an. Aber Meta ist mit seiner “abstrakten” Pinch-Geste – Sie möchten, dass Sie Objekte in VR berühren, ähnlich wie Sie im wirklichen Leben einen Bildschirm oder eine Tastatur berühren. Jetzt stellt Meta diese Idee auf die Probe.

Das Quest v50-Softwareupdate, das derzeit für Benutzer bereitgestellt wird, bietet eine experimentelle „Direct Touch“-Funktion. Handtracking-Funktion. Die Idee ist ziemlich einfach; Mit Direct Touch können Sie mit herkömmlichen Berührungsgesten durch Meta Quest-Apps und -Menüs navigieren.

Anstatt wie ein komischer fleischiger Hummer in die Luft zu kneifen, können Sie jetzt “anklopfen” “wischen” und “typ” in der Luft. Dies erleichtert das Scrollen durch Browserseiten oder Menüs. Leider ist die App-Unterstützung extrem begrenzt, daher sind wir nicht sicher, wie Apps oder Spiele Direct Touch nutzen werden.

Es gibt nur ein Problem; Touchscreens sind schon etwas wackelig und erfordern ein ordentliches Maß an Koordination. Direct Touch ahmt die Touchscreen-Steuerung nach, aber es kann kein physisches Feedback erzeugen – du berührst eigentlich nichts, also muss deine Hand-Auge-Koordination genau richtig sein.

Direct Touch versucht, etwas anzusprechen Lösen Sie dieses Rätsel, indem Sie Ihre Hände umreißen und UI-Elemente hervorheben, die Sie berühren. Aber wie The Verge feststellt, ist die Erfahrung etwas umständlich und etwas fehlerhaft. Es überrascht auch nicht, dass deine Arme ziemlich schnell ermüden.

Nach dem Update auf Quest v50 kannst du „Direct Touch“ auf der Registerkarte „Experimentelle Einstellungen“ aktivieren. Beachten Sie, dass diese Funktion nur auf den Headsets Quest 2 und Quest Pro verfügbar ist.

Quelle: Meta