サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Pixel 9
render.s73.xrea.com
社会脳の本を読んでいて、自分の身体のイメージがVR上のキャラクタのものに置き換わるという話を見つけました。 amazon:ソーシャルブレインズ入門――<社会脳>って何だろう amazon:つながる脳 1.被験者にHMDを着けて、仮想空間の中に入ってもらう。 2.仮想空間内には、本来の自分とは異なる(例えば、伊勢えびのような)身体があり、それを見ることができる。 3.仮想身体には、お腹から本来無い腕(腹腕)が数本生えている。 4.腹腕は本来の身体のどこかを動かすと、それに応じて動くようになっている。 5.腹腕を自由に動かせれるようになると、仮想空間内を動き回れるようになる。 6.仮想空間を自由に動けるようになった頃に、被験者は全く新しい自己身体像を獲得している。 上記の現象は、「ラバーハンド錯覚」や「ボディースワップ錯覚」と呼ばれている現象と非常によく似ています。 視覚+触覚情報が生む新しい
PTAMの日本語訳 アブストラクト~2章まで ○アブストラクト この論文では、初めて撮影される環境での、カメラの姿勢計測の方法を解説します。 これ自体はすでに研究されていて、ロボティックの分野などで開発されたSLAMアルゴリズムを使用する試みがなされています。 ここで、私たちのシステムは以下の特徴を持っています。 ・小規模な作業領域で、手持ちカメラによるトラッキングを行うよう設計されている。 ・トラッキングとマッピングのタスクを2つに分離し、デュアルコアPCでのスレッドの並列処理でこのタスクを実行する。 スレッドの分離では、1つのスレッドで手持ちカメラのトラッキングを行い、もう1つのスレッドでは過去のビデオフレームから特徴点の3Dマップを作成します。ここでは、通常のリアルタイム処理では行わないような、重いバッチ処理技術を使うことになります。 その結果、数千もの目印を持つマップを生成し、それ
前回、様々なホワイトボードを探す中で、紙製のホワイトボードを発見。 これをダンボールに貼り付けることで、大きなホワイトボードを作る計画を立てました。 目標 A0サイズ(841×1189mm)以上のホワイトボードを、ダンボールや紙のホワイトボードなど安い素材を使って作成する。 材料 紙製のホワイトボード 3枚 1,428円 99の両面テープ(15mm x 6m) 3個 312円 3M コマンドタブ Mサイズ 1個 289円 ダンボール 大きめ 6箱 0円 合計 2,029円 ダンボールは近所のスーパーでもらってきました、できるだけ大きいもので、サイズがそろっている方がいいと思います。 場所の確保 大掃除のときに、部屋で一番広い壁を空けることにしました。 サイズは約 2 x 2mになります。これぐらいあればきっと十分でしょう。 ダンボールを貼り合わせる ダンボールを同じサイズになるように切っ
SIGGRAPH Asia 2009に参加してきました。 見れたのは展示のみ、本当は論文発表等を見たかったのですが今回は駄目でした。 とりあえず、展示会で気になったものをご紹介します。 < UEI iPhoneとARとHMDを合わせたデバイス > iPhoneのGPSとコンパスを使い、向いている方向に合わせてHMDに映った地図が回転するそうです。ここでは付けてみることはできなかったのですが、実際にどのように見えるのかが気になりました。 iPhoneとARとHMDと自転車 < MITメディアラボ Sixth Sense > 有名なMITメディアラボの投影型AR。(写真の写りが悪くて分かりにくいですが)実際に見るのは初めてだったので、とても面白かったです。 Sixth Sense < 幽霊退治AR 「KAIDAN」 > 光の効果と立体音響でとても怖いAR幽霊を体験できました。途中、耳元で幽霊の
前回の処理プロセス概要に、該当するソースの関数名を割り振り、遷移図にしました。 この図は、PTAMのソースをそのまま図に書いたものでないということに注意してください。 論文での主要な処理に合わせて、ソースの処理はいくつか省かれています。 --------- < メイン処理 > --------- 以下の処理をループさせます。 --------- < 1.マップの初期化 > --------- --------- < 2.トラッキング > --------- --------- < 3.マップの更新 > --------- これはスレッドで実行され、ステレオの初期化以下がループします。
今日はこちらのイベントに参加してきました。 「コンピュータビジョン・拡張現実感に関する普通じゃない勉強会 2.0」 http://kougaku-navi.net/vrarxr/ 詳しい説明は、タロタローグブログ様等でされているみたいなので、ここでは主に僕が興味を持ったものをご紹介します。 < R 2 : Real×Reality > ARで有名な慶應大学の稲見教授とポストペットの開発者である八谷さん、工学ナビの橋本さんと同じ職場の福地さんとのパネルセッション。 皆さん非常に面白い話をされていて全部紹介したいところですが、中でも八谷さんの視聴覚交換マシンに興味を持ちました。 これは二人の人が装着するHMDで、お互いの視覚と聴覚を交換することができます。つまり相手と向かい合っているときには、自分の姿が見えてしまうというものです。相手の立場(視聴覚)に実際に立ってしまった時にどんな気持ちにな
・参考サイト 毛の生えたようなもの:ARToolKitとその周辺技術のまとめ wikipedia:拡張現実 pipe_render のブックマーク / AR <研究> Human Interface Technology Lab, Seattle Augmented Reality, Virtual Reality, Human-machine Interface HIT Lab NZ Human Interface Technology Lab, New Zealand TU Munich STUDIERSTUBE Augmented Reality Project Information in Place, Inc. Augmented Environments Lab, Georgia Institute of Technology ATR Lab. Japan Augmented
ARのサンプルで表示するCGがショボすぎるので、ちゃんとしたCGデータを読み込めるようにしてみます。 ARToolKitやPTAMは基本OpenGLで動いているので、OpenGLでの3Dモデルを読み込む方法を調べてみました。 ----- < 3Dモデルのファイルフォーマット > ----- まず最初に、3Dモデルのデータ形式の種類についてです。 有名なものをまとめてみました。 DXF: AutoCAD OBJ: Wavefront ROK: 六角大王 MQO: Metasequoia LWO: LightWave3D 3DS: 3D Studio MAX PLY: Stanford Univ COB: TrueSpace SUF: DOGA POV: POV-Ray RDS: RayDreamStudio PMD: MikuMikuDance RDS: PlayStation WRL: V
PTAMの問題点の1つに、「マップの3D座標空間が勝手に決められてしまう」というものがあります。 3D座標空間は、初期化完了時に出るグリッド平面で表されます。 これはCGにとっては「地面」を意味しているので、地面が正しい位置にないとCG表示もおかしくなってしまいます。 (例えば、垂直な壁が地面になってしまう等) この問題を解決するには、地面の決定に別な方法を使う必要があります。例えば、 ユーザーのコントロールによって、地面の位置や方向を再調整する。加速度センサーでカメラの下方向を認識、そのベクトルにほぼ垂直で、面を形作っている特徴点の集合を探す地面の位置に目印を置いて、それを認識させる。などが考えられます。 ここで、上記の項目に何か見覚えがあるものが入っています。それは、「目印」の認識です。 これは、今まで散々使ってきたARToolKitを使えば簡単にできそうです。 ----- < ライセ
PTAM(Parallel Tracking and Mapping for Small AR Workspaces)の解析を行っております。 正直言って非常に難しいです。 なので、とりあえず概要について説明したいと思います。 また資料として、以下のサイトを参考にさせていただきました。 masayashi:PTAMを15分でなんとなく理解する Cagylogic:PTAMのアルゴリズムを理解するのに必要な用語 ※非常に大雑把に翻訳しているので、誤りや不足があるはずです、ご注意ください。 ※また、この内容は未完成で、修正される可能性があります。 ○PTAMとは? マーカーなしのARの手法です。 以下のような特徴があります。 初めて映す場所でも実行できる(マーカーなどの目印いらず)最初の場所から少し移動しても、トラッキングし続けることができる。(常にマップを更新)マップの更新とトラッキングを別
2回目は、PTAMの処理プロセスの概要です。 また概要になります、すいません。各プロセスの詳細は、後々解説していこうと思います。 --------- < 処理プロセスについて > --------- PTAMでの処理は、大きく分けて次のようなものがあります。 1.マップの初期化 2.トラッキング3.マップの更新 ○1のマップの初期化は、一番最初に行われる作業です。PTAMの動画を見ていると分かりますが、最初にバッチ処理っぽいことを行っています。この時の画像を元にマップが構築されて、これが基本のマップになります。 ○2のトラッキングでは、このマップを元にカメラの位置・姿勢(方向)の推定が行われます。この処理はスレッドで行われ、coarse-to-fineという手法が用いられます。 coarse-to-fine:最初に大まかなマッチングを行い、大体の位置を確定できたら、次に細かいマイッチングを
パブリックドメインソースを公開したので、次にプログラムをまとめたものを公開します。 FingerDetect1.0.zip -- < プログラムの使い方 > --- 0.Webカメラが2つあることが最低条件です。 ちなみに僕のは"Qcam Pro for Notebooks"。他のカメラでは試していないので、動くかどうかはわからないです。 あと、2つのカメラの設定を同じにしてください。 1.2つのカメラの向きを平行にして、まっすぐに並べる。 2.緑色のキャップのようなもの(作者は風船を使用)を用意し、それを親指に付けます。 3.TwoViewに関する説明(http://render.s73.xrea.com/pipe_render/2008/05/artoolkittwoview.html)を読み、"WDM_camera_flipV_01.xml"、"WDM_camera_flipV_02
これで、普段僕らがやっている「手で掴む・離す」という作業をそのままUIとして利用できるので、より自然な操作が可能になるはずです。
最近はARToolKitのプログラムも少しできてきたので、 次は手とかをそのまま認識させたいと思っていました。 そしたらちょうどmasafumiさんという方のブログで手認識を使ったARという記事を見つけました。 この方法は認識精度が高そうなので、twoViewでの物体認識にも使えそうです。 この手認識ARの研究は、手を認識することによってマーカーの代わりにしようというものです。 ソースも公開されているので、すぐにこのプログラムを使った動画がアップされています。 見ての通り、指認識の精度は非常に高いです。 というわけで今回は、この指認識のアルゴリズムだけをいただき、 この情報を元にtweVIewから指の3次元座標を計算してみました。 これで綿棒や色の付いた目印を使う必要がなくなります。 --- < 指認識の概要 > --- 指認識では、おおまかに以下のような処理を行っています。 1.手の色に
やっと2つめのカメラを購入したので、さっそくTwoViewを触ってみました。 遅くなってしまったので、コメントを頂いた方はもう解決したかもしれませんが、一応書いておきます。 基本的には、工学ナビ様のBBSで説明されている手順通りです。 詳しく書いてみます。 ちなみに僕の環境は以下の通りです。 OS : Microsoft Windows XP Home Edition (SP2) CPU : AMD Athlon^(TM) 64 X2 プロセッサ 3800+ メモリ : DDR SDRAM 1GB Webカメラ:Qcam Pro for Notebooks ×2 1.GraphEditの入手 GraphEditは、DirectX SDKの中に入っています。 ひとまず、"C:\Program Files\"内で、GraphEditとか、graphedtで検索してみてくださ
解析の2回目は、マーカーの認識についてです。 前回の変換行列の計算で、省略した部分を説明します。 ---- < マーカー認識の概要 > ---- ※注意 この動画で、画像の色分けでは、そのつど色が計算されるため、多くの色が点滅するような動画になっています。 また、画像の生成等の重い処理を行っているので、フレームレートは低くなっています。 光過敏性発作などがある方は、予めご注意ください。 BGM:エコテロニカ(sansuiさん) なんだかムーンサイドみたいですね。 ちょっと誤字があるようですが、気にしないでください。 ARToolKitでは、変換行列を計算する前に、その基となるマーカーを知っていなければなりません。 カメラに映った画像から、どこにマーカーがあるのか判定するために、おおまかに以下のような処理を行います。 1.カメラからの画像を2値化して、画像の暗い部分を探す 2.暗い部分で、そ
安定化の次は、プログラムの高速化などをやってみようと思ってましたが、 高速化のためには、ARToolKitのソースをもっと理解していなければなりません。 そこで、次に「ARToolKitの解析」を行うことにしました。 解析のその1は、変換行列の計算アルゴリズムの解説をやってみます。 ここでいう変換行列とは、マーカー(オブジェクト)座標系から、グローバル(カメラ)座標系へ変換する行列のことです。 これは、ARToolKitの重要な仕組みの1つです。 ---- < 変換行列計算の概要 > ---- BGM:エコテロニカ(sansuiさん) OpenGLなどの3DCGでは、3Dモデルの移動・回転などを行うために、座標系の変換行列を用います。 ARToolKitの場合も、この変換行列がないと、マーカー上にモデルを表示できません。 プログラムでは、スクリーン上に映ったマーカーの画像から、この変換行列
さて、現在ARToolKitのソースの公開に向けた準備を進めている最中ですが、 そこで避けては通れない問題があります。 GNU General Public License(以下GPL)の問題です。(wikipediaのGPL解説ページ ----- <GPLの大まかな説明> ----- ARToolKitのソースのライセンスは、このGPLになっています。 ここでは、GPLについて簡単な説明しかしないので、詳細については他のHPを参照ください。 また、"説明が間違っている"、とか"説明が足りない"部分もあるかもしれません。ご注意ください。 ということで、GPLを(誤解を恐れず簡単に)説明すると、以下のような内容になります。 「GPL付きのプログラムを変更し、再配布する場合は、必ず変更したソースコードも一緒に配布しなくていけない」 GPLでは、入手したプログラムを個人や社内"のみ"で使用してい
順番が逆になってしまいましたが、動画で紹介した内容を書きます。 最初に、ARToolKitについてまったく知らない方は、youtube等で作品を検索してみるのが一番早いかと思います。 AR(augmented reality)(拡張現実)とはVR(virtual reality)(仮想現実)に近い言葉です。 VRが現実に存在しない仮想空間をメインにするのに対し、ARは現実世界がメインで、そこに対して情報を付加したりします。 ARToolKitはそんなARの技術の1つを、なんとフリーで公開しています。なので、研究レベルのアプリを個人でも作成できてしまうというすばらしいツールなのです。 現在、ネット上の動画サイトで、このツールを使った作品が多数製作されています。 さらに、ARToolKitのプログラムに興味がある方がこちらをご覧ください。 工学ナビ:「攻殻機動隊」「電脳コイル」の世界を実現!
このページを最初にブックマークしてみませんか?
『Pebble In The Sky』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く