オムロンの画像センシングコンポ(HVC:Human Vision Components)は、 組み込みや取り付けだけで、簡単に人の状態情報を得ることができる画像センサです。 画像センシング技術「OKAO® Vision」とカメラモジュールをコンパクトに一体化しました。 無線LANで端末へデータを送信し、アプリで簡単に操作が可能です。 ヒューマンビジョンコンポ (HVC-P2)
話題に遅れること1年半、例のPerfumeのモーションキャプチャデータを動かすことをやってみようと思います。 といっても、データと一緒に oF のサンプルアプリが既に公開されてるようなので、それを試しつつ、iOSで動くように改修しつつ、 どんな実装になってるのかざっと把握する という感じで見ていきます。 (完成品のスクショ) ちなみに、openFrameworks Advent Calendar 2013 - Qiita の13日目の記事になります。 モーションキャプチャデータとサンプルをダウンロード モーションキャプチャデータはこっちから、oFサンプルはここからダウンロードできます。 サンプルアプリのビルド 適当なサンプルプロジェクトを開いて、Base SDKをlatestに変更したのちビルドしてみると、'tr1/memory' file not found エラーが出る。 で、 [he
openFrameworksのアドオンの1つ、ofxFaceTrackerをiOSで使用するのに手こずったのでメモ。 まず普通にアドオンを追加してコンパイルしてもコンパイルが通らない。 こんな感じ。 iOSでは先にofxOpenCVを読み込んであげなきゃいけない。のでofxOpenCVをアドオンに追加し、ofxFaceTrackerの前(厳密にはofxCvの前)でインクルードしてもう一度コンパイルしてみる。 するとコンパイルは通った! でカメラの初期化とかしてFacetrackerを使ってみようとコンパイルは通るけど起動時にエラーが出る。 なんでかなーと色々調べてると、ofxiPhoneアドオン内のofiPhoneVideoGrabber内の関数にこんな記述が…(笑) ofPixelsRef ofiPhoneVideoGrabber::getPixelsRef(){ static ofPi
iOS5から使えるようになったCIDetectorがiOS7で更に進化し、笑顔やまばたき(目をつぶっているかどうか)を検出可能となりました。 すごく簡単に実装できる上に処理も遅くないのでいろいろな使い道があると思います。 下準備 まずCoreImageフレームワークをプロジェクトに追加しておきます。 検出 CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace context:nil options:@{CIDetectorAccuracy: CIDetectorAccuracyLow}]; CIImage* image = [CIImage imageWithCGImage:uiimage.CGImage]; NSArray *features = [detector featuresInImage:ima
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く