タグ

ブックマーク / jp.diginfo.tv (27)

  • 患者の顔を叩いて睡眠時無呼吸を改善する枕型ロボット - DigInfo TV

  • 分散協調制御理論とネットワーク制御システムへの応用展開 - DigInfo TV

    yuiseki
    yuiseki 2015/04/21
  • AR技術によるテンセグリティの制作支援 - DigInfo TV

    "千葉大学 平沢研究室では、テンセグリティという構造を持つオブジェを作るための支援システムをARで実装しました。" "通常の建築物だと、硬いものと硬いものが接続されて形状を作っていくんですが、テンセグリティという構造では、硬いロッドと硬いロッドがそれぞれぶつからずにワイヤーによる張力で全体の形状を支持するという構造になっています。" "この形状は、我々はとても魅力的なものだと感じていますが、設計するのも難しければ実際につくるのも難しいということで、支援としてARを採用しています。" "この構造体は、ユニットと呼ばれる3のロッドからなる組み合わせの部品でできています。今回はこの部品を正確に作るための支援としてARを使っています。" "今こちらのロッドの端点に赤いターゲットのようなマークが付いているのが分かると思います。マークがついているのが、頂点が正しい位置にいるということになります。今こ

    yuiseki
    yuiseki 2013/11/12
  • 慶應義塾大学、約1分で装着できる簡易脳波計測器を開発 - DigInfo TV

    慶應義塾大学 満倉靖恵准教授のグループは、人の脳波から興味や集中、欲求、ストレス、眠気などをリアルタイムに抽出できる簡易脳波計測器を開発しました。 "脳波計からリアルタイムで脳波を計測して、その結果をリアルタイムに表示させるというところが一番ポイントとなっています。ですから、今現在の眠さとか嫌悪感とか集中度とかを測れるようになっています。" 従来の脳波測定器は、装置が大型で、装着や分析に時間がかかってしまうという問題がありました。今回は、脳波の計測箇所を、感情が表れるとされる「FP1」という部位のみに絞ったことで、装置の大幅な簡易化に成功しています。 また、脳波の解析方法も、従来とは全く違ったアプローチを行っています。 "従来は、例えばシータ波がたくさん出てると眠たいとかアルファ波がたくさん出てると落ち着いているとか言われていたんですが、今回の方法だと、周波数のどの部分とどの部分が大きくな

  • 脳波解析で気になるものを自動的に記録するウェアラブルカメラ「neurocam」 - DigInfo TV

    「neurocam」は、興味を感じたものを自動的に記録する、世界初のウェアラブルカメラです。 脳波センサーを搭載したヘッドセットとiPhoneからなり、額のセンサーで取得した脳波から興味を感じたかどうかを推定して、興味を感じたと思われる場面をiPhoneのカメラで撮影します。 意識的にシャッターを切る必要がなく、装着するだけで自動的にアルバムに記録され、後から興味を示した場面を閲覧することができます。 "今、プリズムでiPhoneのカメラから私の視線の先のものがそのまま写るようになっています。その写った物をiPhoneの画面に映して、まるで私の頭の中が見えている状態になっているかと思います。脳波をiPhoneのアプリで解析していまして、そのアプリで「気になる度」というのを0から100まで定量化しています。60を超えると数字が赤くなって、自動的にレコーディングが始まり、5秒間のGIF動画が作

  • 香りを使ったアプリが作れる世界初のスマートフォン用デバイス「ChatPerf」 - DigInfo TV

    "こちらは、今までにない世界初の商品で、スマートフォンを通して香りをもっと身近に感じてもらおうという、香りを使ったコミュニケーションやゲームができるようになるデバイスです。" "例えばSNSで疲れた友達に「頑張ってね」というメッセージとともに優しい香りを送ったりという使い方もできますし、あとはメールの受信時とかに受信音と一緒に匂いを出すとかができます。その他ゲームでも使えると思っています。シューティングゲームであれば、攻撃した時に火薬の匂いをだすとか、アプリ次第で幅広く活用できると思います。" "ビジネスモデルとしては、こちらのタンクをいろいろ買って頂くことでビジネスをしていきたいと考えています。" "発売時には自社でいくつかゲームSNSなどのコンテンツを用意しようと思っています。アプリとデバイスを連携させるSDKはもう公開していますので、開発会社や個人のアプリ開発者さんに、皆さんの溢れ

    yuiseki
    yuiseki 2013/05/19
  • 人工脳「SOINN」を用いて、ネット上の画像から高速機械学習 - DigInfo TV

    東京工業大学 長谷川修准教授のグループは、独自に開発した機械学習アルゴリズム「SOINN」を発展させ、オンライン学習の安定性を飛躍的に向上させることに成功しました。 "画像検索の技術はかなり実用化されておりますので、それと連動させることで、どれが大事な特徴なのかを自分で取り出してきて、この対象物といえばこういうものというのを覚える事ができます。" これらは、グループがインドで撮影した「リクシャー」の画像です。この画像の1つをロードすると、システムはまだリクシャーを学習していないので、すでに学習済みである「クルマ」と認識します。そこで、システムに「リクシャー」というキーワードを与えます。するとインターネットから「リクシャー」に関連した画像の主要な特徴を抽出して、リクシャーとはなにかを自ら学習します。学習後は、先程とは違うリクシャーの画像をロードしたとしても、その画像がリクシャーであるというこ

  • 実世界の物に対してタッチ操作可能な次世代ユーザーインターフェース - DigInfo TV

    富士通研究所は、紙やなど実世界にあるものを指で直接選択するだけでデータのやり取りを可能にするシステムを開発しました。 "紙やいろいろな物がタッチパネルのように触って操作ができると考えています。この装置は、特別なハードウェアは一切使っていなくて、通常のウェブカメラ相当のものと市販のプロジェクターのみで構成して、画像処理の技術を使ってこの機能を実現しています。" この技術を用いることで、書類を指でなぞって必要な箇所を電子データとして取り込むことができます。 操作対象となる実世界の物体の形状を計測し、カメラとプロジェクターと実世界の3つの座標系を自動で調整する技術により、テーブルや紙など平坦な面だけでなく、厚みのあるなどの歪んだ面であってもタッチと表示を正確に合わせることが可能です。 "今までの手の動きを使ったジェスチャー操作は、ジェスチャーでパソコンやいろいろな機器を操作するといったものが

    yuiseki
    yuiseki 2013/04/17
  • Diginfo.tv

    diginfo.tv expired on 10/29/2022 and is pending renewal or deletion.

    yuiseki
    yuiseki 2013/03/30
  • ペインティングUIで直感的に照明を制御できるシステム - DigInfo TV

    "「Lighty」という名前のライティングシステムです。天井にロボティックライトという首振りと明るさが制御可能なライト群が付いてまして、そちらの制御ができるインターフェースになっています。" "まさにPhotoshopみたいな感覚で、塗るだけで明るくしたい場所、暗くしたい場所を指定できます。 このシステムは、液晶ペンタブレットを用いて、部屋全体の明るさを細かく制御できます。液晶画面には、天井カメラで撮った部屋の全景がリアルタイムに映し出されており、その映像に対して直接ブラシツールで白く塗っていくことで、その部分を明るくすることができ、、黒く塗ると暗くすることができます。このような直感的なインターフェースにより、複雑な照明の制御を誰でも簡単に行うことが可能です。 "明るくするのは簡単ですが、暗い場所と明るい場所を両立させるのは、人間が考えると難しいですが、そこはコンピュータが頑張って計算して

    yuiseki
    yuiseki 2013/03/07
  • 多目的用途を持った光るブロックチェア - DigInfo TV

    チームラボはデジタルコンテンツEXPO2012で「メディアブロックチェア」を展示しました。 "メディアブロックチェアは、出っ張っている面が三面、凹んでいる面が三面あり、 出っ張っている面が、凹んでいる面に情報を伝えます。例えば、出っ張っている方のブロックが赤色、受け取る側のブロックが青色ならば、青いブロックが赤を受け取り紫色に変わります。また、紫のブロックの上に黄色いブロックをのせると、黄色が緑色にかわったりします。そうやって、何個ものブロックが連鎖して色が変っていきます。" この光るキューブ型の多目的ブロックは単体でも照明器具やイスなどの用途がありますが、ブロックの凸面と凹面を繋げることで、ベンチやディスプレイ什器、あるいは壁などとさまざまな使われ方が考えられます。 "まず、渋谷のアパレルショップで、平日はアパレルショップとして、台などを置いてオシャレなバックやを置き、週末はデザイナー

    yuiseki
    yuiseki 2013/01/24
  • ハンガーを取ると目の前のモニターに動画を表示 - DigInfo TV

    チームラボは株式会社せーのと協業して「チームラボハンガー」をVANQUISH池袋P'パルコ店に展示しています。チームラボハンガーは、ハンガーを取ると目の前のモニターにハンガーに掛かった服を使ってコーディネイトされた写真や動画を表示するようになっています。 "ハンガーを手にとると、ディスプレイに表示されます。ここがスイッチになっていて、動きます。掛かっている時がオフで外すとオンになります。ハンガーが一つ一つ固有のIDを持っています。手に取るとこの後ろにあるPCに送信されて、そのハンガーに紐付けされているコンテンツが表示される仕組みになっています。" せーのでは2011年9月に渋谷店をリニューアルした際にチームラボハンガーを導入しました。オンラインで衣服を購入する人が増え、お店にアミューズメント性を持たせることを狙い、チームラボのシステムの導入に踏み切りました。 "始め、『なんなんだろう』とい

    yuiseki
    yuiseki 2013/01/05
  • パターン光を投影して、動いている物体表面の3次元形状を精密に計測する技術 - DigInfo TV

    産業技術総合研究所などのグループは、カメラとプロジェクタを使って、動いている物体の3次元形状を精密に計測する技術を開発しました。 今回開発した手法は、計測対象の物体にパターン光を投影し、カメラで撮影したパターンを画像処理することで、撮影した物体の3次元表面形状を計測します。1枚の画像から立体形状を測定できるため、高速度カメラを用いた測定も可能です。 "よく見ると、それぞれの線が波線になっていまして、その波線のパターンに工夫がありまして、それを見ると、プロジェクタからどのパターンが投影されているかが、カメラ画像から分かることになります。そうすると、プロジェクタとカメラを使って三角測量をすることができて、その瞬間の形が分かるということになります。" この手法では、従来のモーションキャプチャよりも計測位置が多いため、衣服のしわや手の細かな形状も計測できます。また、誤差が1〜2mmと高精度であるた

    yuiseki
    yuiseki 2012/08/15
  • 都内のパン屋でパン画像識別システムを使った実証実験がスタート - DigInfo TV

    株式会社ブレインは、トレイ上のパンを約1秒で一括識別するシステムを開発し、東京都内のパン屋で実証実験を開始しました。 この技術は兵庫県立大学と共同開発したもので、実際のレジ精算業務に応用したのは世界で初めての試みとなります。 "アルバイトの方がすぐにパンの名前が覚えられないといった時にこのシステムを使うと、パンの名前が画面に出てきますので、即日レジを担当できるというのが一番のメリットです。それから、やはりレジ待ち行列でも瞬時に精算が完了するので全体的な効率化になると思います。" このシステムは、店内のほぼすべての商品で使うことができますが、サンドイッチなど、違う種類であっても角度によって同じ形・色に見える物は、具材をカメラに向ける必要があります。 "パンと言うのは、焼き釜の位置によって焼き色が変わったり、パンの上に載せるトッピングも人が載せるものですので、1つとして同じ場所には載りません。

    yuiseki
    yuiseki 2012/07/26
    パンの種類を識別して会計を間違わないようにする
  • 千葉大の情報収集用飛行ロボット、モーションキャプチャで4機編隊飛行デモ - DigInfo TV

    千葉大学 野波研究室のグループは、情報収集用の自律飛行ロボットを開発しています。TECHNO-FRONTIERでは、4機のマルチロータヘリコプタを使い、画像処理を用いた編隊飛行のデモンストレーションを公開しました。 "このマーカをカメラで捉えて、それを全てホストコンピュータに送って、位置と傾きを演算で求めています。1mmの精度でポジショニングができます。制御周期は100Hzですので、10ms毎に位置と姿勢を演算して、衝突しないようにコントロールしています。" 機体の重量は300gで、最大積載量は500gです。現在、250gのバッテリを積んでいるので、残り250gまでならカメラ等を積む事ができます。 "今回のデモはアトラクションですので、10機くらい飛ばすともっとおもしろいかもしれません。実際に屋外で情報収集する場合も、多い方が速く情報が取れますので、実用化する場合も編隊飛行させようかと思っ

    yuiseki
    yuiseki 2012/07/19
  • 手作業でしか行えなかった実験を自動化するための汎用ヒト型ロボット - DigInfo TV

    産業技術総合研究所と安川電機が共同で開発した「まほろ」は、従来、手作業でしか行えなかった実験を自動化するための汎用ヒト型ロボットです。 分注や培養など様々な作業を人間よりも高速・高精度に行えるため、臨床検査やバイオハザード実験を効率的に行えます。 "例えば我々はインフルエンザの薬を開発するために強毒株のインフルエンザの感染実験を毎日やっています。これは非常に危険な作業ですので、そういうことはロボットがやるべきです。それから、放射性物質を扱う実験もたくさんしなければいけませんが、そういうものもロボットがやるべきです。" "いろいろなロボットシステムを試しましたが、専用のロボットを作ってしまうと、実験のステップを変更したり改良したり、違うプロジェクトに変えたりすると、開発したロボットが全て無駄になるんです。また、ロボットの開発にものすごく時間がかかります。なので、人間が使う道具をそのまま使って

  • 美しいグラフィックでサイバー攻撃をリアルタイムに可視化、警告を発するシステム - DigInfo TV

    情報通信研究機構は、Interop Tokyo 2012において、対サイバー攻撃アラートシステム「DAEDALUS(ダイダロス)」の動態展示を行いました。 DAEDALUSは、ネットワークなどが攻撃されている様子をリアルタイムに可視化することができます。中心にある球がインターネットを表しており、その周りを回っているサークルの1つ1つが現在観測中のネットワークを表しています。これら、攻撃の様子は、3Dグラフィックで表示され、任意の視点から眺めることが可能です。 " 今まで我々は、「nicter」というサイバー攻撃を観測するためのシステムを作っていたんですが、その中で使っていないIPアドレスを観測するダークネット観測網というのを日の中に作ってきました。今19万のIPアドレスを日の中で観測しているんですが、その観測網を使ったアラートシステムがDAEDALUSです。" 現在、USBメモリやメー

    yuiseki
    yuiseki 2012/06/19
  • ウェブカムだけで顔の向き・表情を高速・高精度に追跡するアバターシステム - DigInfo TV

    慶應義塾大学 満倉靖恵准教授のグループは、一般的なPCとUSBカメラで、人間の顔の向きや表情の変化を高速・高精度に計測する手法を開発しました。 "趣味CGアニメーションを制作している方やWeb対話システムなどで自分の顔の代わりにこういったキャラクターを提示して対話に使うといったもの、もしくはイベントなどでキャラクターをリアルタイムに動かしたりといったことも、パソコン1台とカメラ1台用意するだけで簡単にできますので、そういったことに応用できると考えています。" 顔の検出・追跡には、時系列信号処理の手法を応用し、目や鼻、口などに配置された特徴点を高速・高精度に追跡しています。画面上の白い点が顔の追跡に利用した特徴点、赤い線は顔の向きを表わしており、顔の向きや口の動きに合わせて適切に顔を検出していることが分かります。 "人間の顔の動きに合わせて、アルゴリズムを逐次更新していくようなものを使用し

  • 3600万件の顔データから目的の人物を1秒で高速検索 - 日立の大規模監視カメラシステム - DigInfo TV | JAPANESE

    日立国際電気は、3600万件の顔データから目的の人物を1秒で検索して表示できる監視カメラシステムを開発しています。 このシステムは、探したい人物が映った監視カメラ画像やJPEGデータをキー画像として登録すると、自動的に顔が検出され、そこから探したい顔を選んで検索します。すると、すぐにその人物と思われる検索結果画像が表示され、その画像を選択するだけで前後の行動を動画で速やかに把握できます。 "この高速性は、カメラの映像を録画すると同時に画像認識により顔を検出しながら、さらに似た顔をグルーピングしながら記録する事で実現しています。" 顔の角度は、カメラに対して水平垂直方向それぞれプラスマイナス30度まで、顔の大きさは、40画素四方以上を想定しています。 "鉄道会社や電力会社や警察あるいは大規模店舗など、比較的大規模な監視カメラシステムを導入されているお客様を対象と考えています。" "来年度中の

  • 非接触顔面入力で装着者の顔の動きを再現する着ぐるみ - DigInfo TV | JAPANESE

    首都大学東京の研究グループは、顔の動きを非接触で計測するインタフェースを開発しています。このインタフェースを使って、目と口の動きがシンクロして動くの着ぐるみを試作しました。"顔面入力をしているところ、顔をコントローラにしている点、それをキャラクターの顔に出力しているという点がユニークかなと思っています。""既存の着ぐるみというのは、全然インタラクション性がないものでして、そこに私達のような単純なシステムで、応用が効くような形で提供すれば、着ぐるみの中で演じているアクターさんと、着ぐるみがシンクロして、もっと表現が増えるのではないかと考えています。"このインタフェースは、非接触で顔面入力が可能なことから、フルフェイスヘルメットに適用することで、バイク走行中の操作を顔の動きで行うといったことも考えられています。また、寝たきりの人など福祉機器への応用も検討しています。"表情を作る上で、現在は目

    yuiseki
    yuiseki 2012/03/20