以前に書いた記事では、ThreeDPoseTrackerとVSeeFaceを使って、上半身のWebカメラ映像だけでVRMモデルの手や顔を動かしてみました。 今度はThreeDPoseTrackerではなくmediapipeのHolisticとHandsを使って、手や体の動きをトラッキングすることで、mediapipeとVSeeFace(Leap Motionなし)で、Webカメラだけでモーションキャプチャ―してVRMモデルを動かす実験をしました。 まだまだ試行錯誤している途中ですが、ここまでの記録をメモとして残しておきます。 ※追記:今はこんなことをしなくても、ThreeDPoseTrackerだけで同等以上のことができます。 やりたかったこと Webカメラ1台の上半身の映像で、顔や手など上半身の動きをトラッキングして、VRMモデルを動かすことです。 要はバストアップのvtuberみたいな