タグ

ブックマーク / tks-yoshinaga.hatenablog.com (3)

  • HoloLensとKinectやMyoを組み合わせてみた - tks_yoshinagaの日記

    単体でもかなり遊べるHoloLensですが、他のセンサデバイスとの連携したらもっと楽しめそうだと思い、いくつか試してみたのでご紹介します。 1. Kinectとの組み合わせ Kinectで取得した空間の3次元情報(Point Cloud)をリアルタイムにHoloLensで表示してStar Warsっぽくしてみようというもの。KinectからのPoint Cloudを一旦PCで取得し、HoloLensに送っています。もちろん遠隔地へ送ることも可能。ちなみに自分の好みでシアンで表示していますがフルカラー表示もできます。 また、事前にPCに記録しておいたデータを呼び出して表示するということも可能なので、3次元的なビデオレターのような使い方もできそうです。 2.Myo Gesture Control Armbandとの組み合わせ。 HoloLensで認識可能なジェスチャの数に物足りなさを感じ、腕の

    HoloLensとKinectやMyoを組み合わせてみた - tks_yoshinagaの日記
    hecomi
    hecomi 2017/05/14
  • Kinectを用いた実物体と仮想物体のインタラクション - tks_yoshinagaの日記

    ARやVR空間に表示された仮想物体と実物体が何かしらの相互作用ができたら面白いのではないかと思い、ちょっとしたコンテンツを試作しました。わりと簡便な方法で実現できるのでメモ程度にざっくりとした手順を残しておきます。 1.開発環境 今回の試作では以下のセンサやライブラリを使用しました。 ・開発言語:C# ・グラフィクス:OpenGL (OpenTK使用) ・センサ:Kinect for Windows ・画像処理:OpenCVSharp 2.画像処理による物体認識 実物体の位置の推定を行うため、Kinectから得られるカラー画像に対してOpenCVを用いて画像処理を行います。大まかな手順は以下のとおり。 ① RGBのカラー画像をHSVに変換し、閾値処理によって二値化 ② 閾値を調節することで大まかに対象物の色領域を抽出 ③ 収縮・膨張処理により面積の小さい領域を除去 続いて、抽出された物体の

    Kinectを用いた実物体と仮想物体のインタラクション - tks_yoshinagaの日記
  • 【再掲】 LeapMotionを使ってAR(Augmented Reality)やその他諸々をやってみた - tks_yoshinagaの日記

    ARに関するAdvent Calendar用の内容としてはちょうど良さそうなので昨年書いた記事を再掲。 LEAP motionを用いたARシステムを作る上での参考になれば幸いです。 以下、文 2013年7月にLeapMotionが手元に届き、一通り遊んでみたので振り返りもかねて紹介します。 まず、開発に用いた言語やライブラリは以下の通りです。 ・開発言語:C# ・グラフィクス:OpenGL (OpenTK使用) ・カメラ画像取得:DirectShow.NET ・ARマーカの認識: NyARToolKit for C# ・物理演算:BulletSharp ・その他センサ:Kinect for Windows 7/24 オーダーから約1年近く待ってようやくLeapMotionが手元に。とりあえず付属のアプリで遊んでみた。第一印象としては「応答が早い」。 LEAP Motion SampleA

    【再掲】 LeapMotionを使ってAR(Augmented Reality)やその他諸々をやってみた - tks_yoshinagaの日記
  • 1