エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
mediapipeとVSeeFace(Leap Motionなし)でVRMモデルを動かす実験メモ
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
mediapipeとVSeeFace(Leap Motionなし)でVRMモデルを動かす実験メモ
以前に書いた記事では、ThreeDPoseTrackerとVSeeFaceを使って、上半身のWebカメラ映像だけでVRMモデルの... 以前に書いた記事では、ThreeDPoseTrackerとVSeeFaceを使って、上半身のWebカメラ映像だけでVRMモデルの手や顔を動かしてみました。 今度はThreeDPoseTrackerではなくmediapipeのHolisticとHandsを使って、手や体の動きをトラッキングすることで、mediapipeとVSeeFace(Leap Motionなし)で、Webカメラだけでモーションキャプチャ―してVRMモデルを動かす実験をしました。 まだまだ試行錯誤している途中ですが、ここまでの記録をメモとして残しておきます。 ※追記:今はこんなことをしなくても、ThreeDPoseTrackerだけで同等以上のことができます。 やりたかったこと Webカメラ1台の上半身の映像で、顔や手など上半身の動きをトラッキングして、VRMモデルを動かすことです。 要はバストアップのvtuberみたいな