以前に書いた記事では、ThreeDPoseTrackerとVSeeFaceを使って、上半身のWebカメラ映像だけでVRMモデルの手や顔を動かしてみました。 今度はThreeDPoseTrackerではなくmediapipeのHolisticとHandsを使って、手や体の動きをトラッキングすることで、mediapipeとVSeeFace(Leap Motionなし)で、Webカメラだけでモーションキャプチャ―してVRMモデルを動かす実験をしました。 まだまだ試行錯誤している途中ですが、ここまでの記録をメモとして残しておきます。 ※追記:今はこんなことをしなくても、ThreeDPoseTrackerだけで同等以上のことができます。 やりたかったこと Webカメラ1台の上半身の映像で、顔や手など上半身の動きをトラッキングして、VRMモデルを動かすことです。 要はバストアップのvtuberみたいな
![mediapipeとVSeeFace(Leap Motionなし)でVRMモデルを動かす実験メモ](https://cdn-ak-scissors.b.st-hatena.com/image/square/e5b36c3af822661b081b546832bf4c264bad23e1/height=288;version=1;width=512/https%3A%2F%2Fangelpinpoint.up.seesaa.net%2Fimage%2Fmp1-thumbnail2.png)