タグ

画像処理とarに関するpigshapeのブックマーク (4)

  • AndroidとOpenCVで試す特定物体認識 - 遥かへのスピードランナー

    6月2日に開催されたDevLOVEさんと弊社の共同開催勉強会で、「Android×ComputerVision」というお題で発表してきました。 要はOpenCVAndroidアプリに組み込んで特定物体認識を試そう、というもの。 資料は以下です。 20110602_MTI×DevLOVE発表資料「Android×ComputerVision」 View more presentations from Takahiro Horikawa ソースはgithubで公開してます。 https://github.com/thorikawa/AndroidObjectRecognition/ 概要 資料にも記載していますが、カメラのプレビュー画像からSURFの特徴点を検出して、LSHで再近傍検索→特定物体認識というのを毎フレーム行っています。 「物体」はCDのジャケット画像を5枚の内から認識して、それ

    AndroidとOpenCVで試す特定物体認識 - 遥かへのスピードランナー
  • リインフォースラボ: MonoTouch_画像処理を使う現実拡張のサンプルコード

    2010年2月8日月曜日 MonoTouch_画像処理を使う現実拡張のサンプルコード 概要: MonoTouchを使いC#で記述した、カメラ画像の上にエッジ検出結果画像をオーバーレイする拡張現実のサンプルアプリケーションを紹介します。これはSudoku Grab [iTunes Link] の開発者 Chris Greening のブログエントリとサンプルアプリケーションを基にしています [1]。私はこれをObjective-CからC#にほぼ1対1対応で移植しました。このサンプルコードはunsafeコードを使いポインタによる高速なメモリアクセスを用いてリアルタイムの画像処理を実現しています。フレームレートはiPhone 3GSで 3~4 フレーム/秒 (fps)、iPhone 3Gでは1~2fpsでした。サンプルコードはGithubのレポジトリにthe New BSD ライセンスで公開して

  • iPhoneでカメラの映像をリアルタイム画像処理してみる。 - このブログは証明できない。

    iPhoneで画像を編集するのにハマっています。Photoshopを使える人ならサクっと編集できるのだと思いますが、ドシロウトでも使えるiPhoneアプリでちまちまやっています。 Color Splash + TiltShift Generator + Instagramの写真加工が面白い。 - このブログは証明できない。 で、画像処理プログラミングもやってみたくなったので、早速やってみました。「iOS SDK Hacks ―プロが教えるiPhoneアプリ開発テクニック」にカメラの入出力を触るサンプルがあったので、カメラからの映像をリアルタイムに編集する処理を書いてみました。 赤いものだけがカラーで表示されるカメラです。動画を撮ればよかったのですが、生で見るとおもしろいです。 上の画像を見ての通り、画質が荒いです。全ピクセルを処理すると、処理が追いつかないんです。そこで、画質を落としてピク

    iPhoneでカメラの映像をリアルタイム画像処理してみる。 - このブログは証明できない。
  • クアルコムのAndroid向けAR SDK(QCAR)を動かしてみた - kotamzの日記

    Android, QCAR | 23:20 |  今月(2010年10月4日)にQualcomm社からAugmented Reality SDK(QCAR)が発表されました。Android向けのARアプリケーションを比較的簡単(たぶん)に開発できます。 このSDKが対象にしているのは画像ベースのARです。位置情報、方位、端末の姿勢を利用したARとは異なります。 画像ベースのARでは、物体認識、物体位置の特定、オブジェクトの表示、といった処理が必要です。QCARは、物体認識と物体位置の特定までの処理を担当してくれます。オブジェクトの表示だけは、OpneGLなどで自分で実装する必要があります。 また、物体認識に必要な特徴点データも、QCARの開発用サイトで作成することが出来ます。開発用サイトに画像をアップすると、特徴点データを生成してくれるのでダウンロードしてアプリに組み込みます。 この特徴点

  • 1