明るい室内でもはっきり見えるプロジェクションスクリーン Filmed on April 13, 2011 at 第21回 ファインテック ジャパン 東北大学未来科学技術共同研究センター 内田研究室は、ファインテック ジャパンにおいて、拡散光制御(DLC:Diffused Light Control)理論を用いた、プロジェクションスクリーンを展示紹介しました。"これは、プロジェクターから来る光だけを観察者の方向に拡散させて、余分な外光を観察者のいない方向に反射させるかあるいは吸収させることで、外光の影響を受けることなく、プロジェクターが出している黒が締まったそのままの画像を観察者に表示させることができるようなスクリーンです。"スクリーンは反射板と拡散フィルムから成り、プロジェクターは下から大角度で投影するタイプのものを使っています。下から入ってくる光を反射板で観察者のいる方向に向きを変え、そ
ページをめくる触感を再現する本型デバイス - パランガ Filmed on March 11, 2011 at インタラクション 2011 大阪大学などの研究グループは、インタラクション 2011において、本のページをめくるときの紙の触感を再現する本型デバイス「パランガ」のデモ展示を行いました。"電子書籍が流行っていますが、電子書籍というのはフィードバックとして映像と音しかありません。例えば電子書籍で一気にページをめくりたい時は、指でページをスクロールして目的の位置に行くんですが、それだと直感的では無いというのが問題としてあります。このデバイスでは、一気にめくれるのですが、触覚を与えることによって、大体めくれているページ数というのが分かるというのが利点だと思っています。"このシステムには、曲げ具合を検出するセンサーが搭載されており、複数の紙を取り付けたローラーを本の曲げ具合などに応じて回転
「撓み」の効果を取り入れた新しい制御インタフェース Filmed on March 11, 2011 at インタラクション 2011 大阪大学などの研究グループは、インタラクション 2011において、「撓み」の効果を取り入れた新しい制御インタフェースのデモ展示を行いました。今回のデモでは、Google Mapsに撓みのインターフェースを実装しています。この手法は、画面上のコンテンツを伸縮性の柔らかい材質と捉え、通常のスクロールでは画面の外へ押し出されていた領域が、コンテンツが歪められることにより画面内に残ることで、残った領域を確認しながら次の操作へ移行することができます。"普通のスクロールと違って、指を動かすと撓むのですが、その後に指を離すと普通のスクロールのようにスクロールしたあとの画面が得られます。 撓ましたあとに指を元に戻すと元の画面に戻ります。なので、スクロールしようと思ったけど
大阪大学などの研究グループは、インタラクション 2011において、ふさふさの毛の表面での映像提示とマルチタッチ認識が可能な大画面毛状マルチタッチディスプレイのデモ展示を行いました。"ディスプレイ表面は光ファイバー100万本で構成されています。光ファイバーが柔らかいので、毛の表現ができていることと、手の位置を赤外光が反射して、それを認識することで、マルチタッチを再現するものとなっています。"ディスプレイはファイバ束と赤外線LEDを含むモジュール単位で構成されており、大画面化が可能となっています。今回は、24インチ相当のディスプレイを実装しています。"特長的なところとして、使っている人にこう使ってくださいと言わなくても、毛なので皆さん撫でるんです。そういう意味で撫でることを必要とするような情報提示システムなどに応用可能だと思います。具体的には中々難しいのですが、教示不要で使えるディスプレイシス
中部大学 藤吉研究室は、国際画像機器展2010において、動画像理解ビジョンセンサのデモ展示を行った。動画像理解ビジョンセンサは、カメラが捕らえ映し出された動画像から、人や車の動きをリアルタイムに検出して解析することを目標とするセンサシステム。動画像から特定の要素を抽出・識別するなどの機能を備えており、将来的には、クルマを運転する際のドライバーに代わる眼の役割や防犯対策などへの活用が期待されている。"最終的にはロボットの目を目指しています。人間と同じようにロボットが認識できるようにすることが最終的な目標です。""物体認識の中でも人検出と特定物体認識といった人ではない認識がありまして、標識などの形状が変わらないような特定の物体の検出を主に株式会社アルファプロジェクトと共同研究を行っています。一方の人検出に関しては、三栄ハイテックス株式会社と共同研究を行っています。"藤吉研究室が開発した物体検出
東杜シーテックは、組込み総合技術展において、GPGPUを用いたリアルタイム3D顔復元のデモを行った。このデモでは、2つのステレオカメラで撮影された映像を用いて、位相限定相関法(POC)に基づくマッチング手法による3D復元を実現しており、GPGPUという技術を用いることで、マッチング処理を高速に行い表情の変化をリアルタイムに3次元モデル化している。"CPUだけで処理をしてしまいますと、処理時間がかかってしまいリアルタイムに処理をさせることができないので、GPUを使って処理速度の向上を図っています。"GPUは、並列化された数百個の演算コアと広いメモリバンド幅を持つ汎用デバイス。POCによるマッチング処理をGPU上のスレッドとして並列に処理することで3D復元のリアルタイム化を実現している。"ステレオカメラは、2つのカメラで同時に画像を撮影して、画像の位置ずれをもとに3Dデータとして復元することが
パイオニアソリューションズは、組込み総合技術展インテルブースにおいて、インテル Core i7 プロセッサーを搭載した次世代会議システム「ディスカッションテーブル」を展示紹介した。ディスカッションテーブルは、一般的な企業でメンバー間のコラボレーションを強力に支援するツールとして開発されたもので、メンバー各自が、ノートPCやタブレットを持ち寄って、静止画や動画、エクセルなど様々なデータをテーブル上に流し込むことで、メディアハブのような役割を果たすことができる。"元々、パイオニアソリューションズは、会議システムやタッチパネルを用いた電子黒板のシステムを作っておりましたので、タッチパネルや遠隔会議システムの画像転送などのネットワーク技術といった元々あったベースの技術を使えることと、ディスプレイを平置きにしてこういった形で使いたいという需要があると思い、今回作り上げました。"ディスカッションテーブ
日本科学未来館にて開催された第4回ロボット大賞表彰式において、収穫適期になったイチゴを判別し収穫するイチゴ収穫ロボットがサービスロボット部門優秀賞を受賞した。 イチゴ収穫ロボットは色味具合、熟度をカメラで判定し、果実を傷つけないように果柄(かへい)部分を切断し収穫作業を行う。 収穫可能なのは全体の約60%以上で果実一個を収穫するサイクル時間は9秒になる。"カメラ2台ありまして、そのカメラで、ステレオ画像で果実の3次元位置を検出します。その時と同時にですね果実の熟度ですね、色味具合を測定します。これがですね今80%くらいに合わせてあるんですけども、8分着色以上の着色があれば収穫適期だという風に判断して収穫しにいきます。 今までだいたい10アール、1000平米くらいで2000時間イチゴの栽培には掛かるんですね。その中で4分の1、500時間くらいは収穫作業にかかります。で、ロボット導入する事によ
慶應義塾大学 筧康明研究室の研究グループは、SFC Open Research Forum 2010において、素材の変形・変質を利用したインタフェースデザインを展示した。この研究では、マーカやセンサといった電子デバイスを一切取り付けることなく紙の変形を検知し、その変形を映像操作に利用した入出力インタフェースを提案している。"プロジェクタとカメラ1台ずつで作っているので、処理速度がすごく速くて、リアルタイムの変形がそのまま取れるので、入力がすぐ出力として返ってきます。タッチディスプレイは触ることが大事だと思うのですが、これは変形を使っているので、触らなくても息を吹きかけたり、振動を与えることで入力を取ることができるので、触る必要がない非接触のインタラクションを用いることができます。"今回は、アクティブステレオ法という手法を用いて三次元画像計測を行い、紙の変形を取得しており、変形しやすく、張り
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く