はじめに Meta XR SDKを使って、動きを伴うハンドジェスチャを認識する(つまり、手の向きや形に加えて動きを同時に認識する)方法をメモします。 この記事では具体例として、赤の手話を認識する実装を作りたいと思います。 赤の手話は以下の要素に分解できるので、それぞれの要素を認識する実装を作っていきたいと思います。 (手の形)右手の人差し指だけ伸ばしてて、残りの指は閉じている (手の向き)右手の手のひらを自分の顔に向ける (手の動き)右手を左から右に移動させる 1. 手を用意する まず、UnityプロジェクトにMeta XR Interaction SDK OVR Samplesをインストールします。 このとき、Samples > Example Scenesもインポートします。 次に、シーンを新規作成します。ここで、GestureExamplesというサンプルシーン(Assets/Sam
![Meta XR SDKを使って、動きを伴うハンドジェスチャを認識する](https://cdn-ak-scissors.b.st-hatena.com/image/square/9cb1eeba48a34418ff3cc3972e2c53d4e2fefa50/height=288;version=1;width=512/https%3A%2F%2Fres.cloudinary.com%2Fzenn%2Fimage%2Fupload%2Fs--f8iIbxAJ--%2Fc_fit%252Cg_north_west%252Cl_text%3Anotosansjp-medium.otf_55%3AMeta%252520XR%252520SDK%2525E3%252582%252592%2525E4%2525BD%2525BF%2525E3%252581%2525A3%2525E3%252581%2525A6%2525E3%252580%252581%2525E5%25258B%252595%2525E3%252581%25258D%2525E3%252582%252592%2525E4%2525BC%2525B4%2525E3%252581%252586%2525E3%252583%25258F%2525E3%252583%2525B3%2525E3%252583%252589%2525E3%252582%2525B8%2525E3%252582%2525A7%2525E3%252582%2525B9%2525E3%252583%252581%2525E3%252583%2525A3%2525E3%252582%252592%2525E8%2525AA%25258D%2525E8%2525AD%252598%2525E3%252581%252599%2525E3%252582%25258B%252Cw_1010%252Cx_90%252Cy_100%2Fg_south_west%252Cl_text%3Anotosansjp-medium.otf_37%3AEkito%2525EF%2525BD%25259C%2525E9%2525A7%252585%2525E4%2525BA%2525BA%252Cx_203%252Cy_121%2Fg_south_west%252Ch_90%252Cl_fetch%3AaHR0cHM6Ly9zdG9yYWdlLmdvb2dsZWFwaXMuY29tL3plbm4tdXNlci11cGxvYWQvYXZhdGFyLzU1YmIzZWZlMzEuanBlZw%3D%3D%252Cr_max%252Cw_90%252Cx_87%252Cy_95%2Fv1627283836%2Fdefault%2Fog-base-w1200-v2.png)