気になったゲームの攻略情報、PCの豆知識、様々なガシェットのレビューなどを紹介してます!その他にも管理人の趣味をいろいろと書き綴っています。
![【Openpose Editor】ControlNetと連携して棒人間をリアルタイム編集できる拡張機能!【Stable Diffusion】](https://cdn-ak-scissors.b.st-hatena.com/image/square/86dbb30c301e1d2b23f33263a5895a8904d144f8/height=288;version=1;width=512/https%3A%2F%2Fyuuyuublog.org%2Fwp-content%2Fuploads%2F2023%2F06%2F00001-2182261090-breakdomainanime_A0440-1747-1274-0368-1536-1024.jpg)
概要 tf-openposeを用いて骨格推定をして、その後3d-pose-estimatorを用いて3D姿勢推定をする一連の流れを解説します。また、それとともにハマった点とその解決方法を備忘録代わりに共有します。 tf-openposeについて tf-openposeを用いれば手軽に骨格推定を行うことが可能です。 tf-openposeのインストール
このように姿勢推定ができます。一枚の画像に対しての所要時間はi7-7500Uで約0.42秒ほどでした。 このままだと何のデータも出力されないのでUnityで動かすことができません。 run.pyの中身を見ていきます。 import argparse import logging import time import ast import common import cv2 import numpy as np from estimator import TfPoseEstimator from networks import get_graph_path, model_wh from lifting.prob_model import Prob3dPose from lifting.draw import plot_pose logger = logging.getLogger('TfPo
毎日アプデが来てるんじゃないかってぐらいアプデが来てるControl Net。 Control Netの機能であるopen poseを使う上で欠かせないのがopenpose-editor。 新しいopenpose-editor従来のopenpose-editor(https://github.com/fkunn1326/openpose-editor) では、顔や、手をいじることはできませんでしたが、新しいopenpose-editorで対応しました。 それがGitHub - huchenlei/sd-webui-openpose-editor: Openpose editor for ControlNet. https://github.com/huchenlei/sd-webui-openpose-editorをurlからインストール 再起動の後、使えます。 (使うときの注意点) st
NFC (9) Arduino (13) Kinect (5) Craft (6) App (1) Windows Phone (1) Flash (4) Gainer (1) HTML5 (14) Physical Computing (5) Windows8 (4) memo (32) Award (26) Bluetooth (4) Connective Design (2) DIGITAL DIVERZ (3) DIGITAL FRAGMENTS (8) DeepLearning (2) Device (8) FirefoxOS (2) Hack (3) LINE Creators Market (1) MachineLearning (3) Mixed Reality (1) Multi Screen (1) NUI (2) Node.js (14) PerC (1) SXSW
runtime error failed to create containerd task: failed to create shim task: context canceled: unknown: Error on reading termination message from logs: failed to try resolving symlinks in path "/var/log/pods/spaces-v2_r-jonigata-posemaker2-2ea22f5349be1200-56ccd-m5hjm_851365c4-67e4-498a-aa0c-23fc136852aa/spaces/0.log": lstat /var/log/pods/spaces-v2_r-jonigata-posemaker2-2ea22f5349be1200-56ccd-m5hjm
この記事は【目次】MMDモーショントレース自動化への挑戦の為の導入手順になります。 ノンエンジニアの方向けに、できるだけ平易に記載した…つもりです。 v2リリースに伴い、こちらの導入は廃止となりました。クラウド版をご利用ください クラウド(colab)でMMD自動トレース OpenPoseとは OpenPose represents the first real-time multi-person system to jointly detect human body, hand, and facial keypoints (in total 130 keypoints) on single images. OpenPoseは、単一の画像上で人体、手、顔面のキーポイント(全部で130個のキーポイント)を共同で検出する初めてのリアルタイムマルチユーザシステムです。 OpenPose - Gi
主なオプション --help: 全てのコマンドオプションを表示 --face: 顔検出を有効にする --hand: 手検出を有効にする --video input.mp4: 動画の読み込み --camera 3: Webカメラ番号を指定(複数カメラがある場合) --image_dir path_to_images\: 静止画像フォルダを指定 --ip_camera http://iris.not.iac.es/axis-cgi/mjpg/video.cgi?resolution=320x240?x.mjpeg: IPカメラを使用 --write_video path.avi: 動画出力 --write_images folder_path: 静止画出力 --write_keypoint path\: JSON, XML or YMLファイル出力 --write_json path\: JS
実行方法 下記からbinaryファイル(現時点の最新はopenpose-1.3.0-win64-gpu-binaries.zip)をダウンロードする https://github.com/CMU-Perceptual-Computing-Lab/openpose/releases 解凍したフォルダ(仮にopenposeとする)をCドライブ直下に置く (実際はどこに置いても良い) openpose\modelフォルダ内にあるgetModels.batを実行してモデルをダウンロードする openposeフォルダを開き,アドレスバーにcmdと入力しコマンドプロンプトを立ち上げる コマンドプロンプトでbin\OpenPoseDemo.exeを実行する コマンド Webカメラで実行する 特にオプションは必要ない bin\OpenPoseDemo.exe Imageファイルで実行する --image_
OpenPoseとは OpenPoseはDeep Learningを使って単眼カメラから人体姿勢を推定するライブラリで,CVPR2017でRealtime Multi-Person 2D Pose Estimation using Part Affinity Fieldsというタイトルで発表されたもの. OpenPose 公式ページの情報を要約すると,画像,ビデオ,webcam,IPカメラから18点のキーポイントが検出可能.各種フォーマットで結果を保存可能. 他にも,左右の手から21点,顔から70点のキーポイントを検出するオプションもある. これらはUbuntu,Windows,Nvidia Jetson TX2で動作する. というわけで,色々な用途に使えるので,よく使うオプションのメモ. 実行方法 例えば,USBカメラを使う場合は以下の通り. ./build/examples/openp
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く