カナダ・オンタリオ州の医療チームがXboxのモーションコントローラ「Kinect」を外科手術の現場で採用することによって、執刀医の作業負担を大幅に削減することができたそうです。 どのような感じで使っているのかというムービーなどは以下から。 Xbox useful to surgeons - Sunnybrook Hospital YouTube - Xbox Kinect in the hospital operating room これはトロント大学の研修医とサニーブルック・ヘルス・サイエンス・センターのがん外科医による医療技術グループによるもので、手術中の重症患者の画像視認技術として用いているとのこと。 そもそもガンなどの外科手術では、MRIやCRTスキャンの画像を視認するために、手術中に無菌領域を離れる必要があり、この問題を打開する為に医療チームは手術室のコンピュータにXboxを接続
かめはめ波、いつかは出せるって信じてた! Kinectがそれを可能にしてくれました(動画あり)2011.01.26 14:00 多くの人が憧れたであろう夢の技。今、現実に! 最近、いろんな夢を叶えまくってくれているKinectさんを活用することによって、ついに永遠の憧れ、かめはめ波まで出せるようになった模様です! 作者さんの説明によると、まず体にオーラをまとったら、手を構えて、エネルギーを溜めて発射! するとのこと。小さめに出すか大きめに出すかも自分で調節できるそう。なにはともあれ、ぜひ動画を見てみてください。すごい迫力です。エネルギーが身の回りを照らしてくれているのもとってもリアリティがあります! みんなの憧れが現実になっただけに、動画を見た人たちの興奮もおさまらない様子です。 カッコ良すぎワロスwwwぎゃあああああああああああああすげえええええええええええええ照り返し入りとかすごいw素
おいなんだこれwwwwwww すごすぎるぞwwwwwwwwwwwwwwwwwwwww ※Kinectによるモーションキャプチャーをガンプラで稼働
(English version is available at http://www.youtube.com/watch?v=RUG-Uvq-J-w) 知力・体力・CPUパワーの無駄遣いを極めるべく、Kinectのモーションキャプチャを活用したウルトラセブンを体験できるプログラムを作りました。PCの中でウルトラセブンのようなものに変身してなんかいろいろできます。アルゴリズム行進に続き、たぶん世界初でしょう。開発期間は一週間、初めてのOpenGLプログラミングがKinect自体を扱うよりも大変でした。最新の進化した版の動画が http://www.youtube.com/watch?v=kxvn98lqr5Y にあるのでそちらもどうぞ。コードは http://code.google.com/p/kinect-ultra/ に公開してあります。
1 名前:味噌スープ(千葉県) 投稿日:2010/12/20(月) 00:39:02.36 ID:UQtHqzmYP ?PLT(18001) ポイント特典 ゲームデバイスとして発売されたものの、一部のファンによって別の用途で大活躍しているXbox360のKinect(キネクト)。 今回はハックしたKinectを利用して、3Dアニメーションソフト「MikuMikuDance」の初音ミクを動かしている動画をご紹介します。 Kinectのおかげで、初音ミクが人間の動きとスムーズに連動しています。ただし、動画のようにリアルタイムで動かせるわけではありません。 まずKinectで人体の動きをキャプチャして、その後データをMMD3件にインプットする、と一手間求められます。 4 名前:ボルシチ(東京都) 投稿日:2010/12/20(月) 00:40:39.84 ID:ByX7+kx70 イ77ス __
【動画あり】神フリー3Dソフト、MMDがついにモーションキャプチャー対応! Tweet 1: 味噌スープ(千葉県):2010/12/20(月) 00:39:02.36 ID:UQtHqzmYP ゲームデバイスとして発売されたものの、一部のファンによって別の用途で大活躍しているXbox360のKinect(キネクト)。 今回はハックしたKinectを利用して、3Dアニメーションソフト「MikuMikuDance」の初音ミクを動かしている動画をご紹介します。 Kinectのおかげで、初音ミクが人間の動きとスムーズに連動しています。ただし、動画のようにリアルタイムで動かせるわけではありません。 まずKinectで人体の動きをキャプチャして、その後データをMMD3件にインプットする、と一手間求められます。 2: エビグラタン(岡山県):2010/12/20(月) 00:39:28.90 ID:a5
3D maps generated with the depth camera underlying Kinect. The models were generated by walking once through the lab environment, more complete maps could be built as well. The first part of the video shows raw, colored point clouds. The second part shows a flythrough of a 3D map represented by small surface patches. Because the models are geometric, they can be rendered in stereoscopic 3D for shu
MikuMikuDance with OpenNI test. Moving in realtime by Kinect. It still not calculate lower body. so I develop continuously.
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く