Learning Hierarchical Cross-Modal Association for Co-Speech Gesture Generation 音声に一貫した体とジェスチャーの動きを生成することは、仮想アバターの作成における長年の問題です。以前の研究では、すべての関節のポーズが同時に生成される全体的な方法でポーズの動きを統合することがよくあります。このような単純なパイプラインでは、きめの細かい共同音声ジェスチャを生成できません。 1つの観察は、音声の階層的セマンティクスと人間のジェスチャーの階層構造は、自然に複数の粒度に記述され、一緒に関連付けられる可能性があるということです。スピーチオーディオと人間のジェスチャの間の豊富な接続を十分に活用するために、共同スピーチジェスチャ生成のためのHierarchical Audio-to-Gesture(HA2G)という名前の新しいフレ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く