タグ

ブックマーク / zenn.dev/ekito_station (2)

  • Meta XR SDKを使って、動きを伴うハンドジェスチャを認識する

    はじめに Meta XR SDKを使って、動きを伴うハンドジェスチャを認識する(つまり、手の向きや形に加えて動きを同時に認識する)方法をメモします。 この記事では具体例として、赤の手話を認識する実装を作りたいと思います。 赤の手話は以下の要素に分解できるので、それぞれの要素を認識する実装を作っていきたいと思います。 (手の形)右手の人差し指だけ伸ばしてて、残りの指は閉じている (手の向き)右手の手のひらを自分の顔に向ける (手の動き)右手を左から右に移動させる 1. 手を用意する まず、UnityプロジェクトにMeta XR Interaction SDK OVR Samplesをインストールします。 このとき、Samples > Example Scenesもインポートします。 次に、シーンを新規作成します。ここで、GestureExamplesというサンプルシーン(Assets/Sam

    Meta XR SDKを使って、動きを伴うハンドジェスチャを認識する
  • Meta XR SDKを使って、手でオブジェクトを投げられるようにする

    はじめに Meta XR SDKを使って、手でオブジェクトを投げられるようにする方法をメモします。Building BlocksのThrowable Itemを使っても簡単に実装できますが、ここではプレファブを使いながら自分で手を組み立てていく方法をまとめます。 Building BlocksのThrowable Item 1. 手を用意する まず、UnityプロジェクトにMeta XR Core SDKとMeta XR Interaction SDK OVR Integrationをインストールします。 新規作成したシーンに、OVRCameraRig(Packages/Meta XR Core SDK/Prefabs/OVRCameraRig.prefab)をドラッグ&ドロップします。 このOVRCameraRigの配下にあるLeftHandAnchor(OVRCameraRig/Tra

    Meta XR SDKを使って、手でオブジェクトを投げられるようにする
  • 1