Parallel Tracking and Mapping for Small AR Workspaces - Source Code PTAM (Parallel Tracking and Mapping) is a camera tracking system for augmented reality. It requires no markers, pre-made maps, known templates, or inertial sensors. If you're unfamiliar with PTAM have a look at some videos made with PTAM. Here you may download a reference implementation of PTAM as described in our ISMAR 2007 paper
他にも、Qoncept AR Engineを使ったアプリとしては「どこでもAR「おうちのおかね」、形状認識を使ったものとして「AR花火」などがあります。 マーカー型のARは精度が良くトラッキングできていますが、上記のとおり画像認識の方が確認できなかったため、画像認識エンジンの精度は未知数です。 【7】SATCH 「SATCH」はauが発表した「D'Fusion Mobile」を用いたライブラリです。オーサリングツールとしてはD'Fusion Studioがそのまま使われており、ARコンテンツ(D'Fusion Studioのプロジェクトファイル。SATCHでは「シナリオ」と呼ばれている)を読み込んで表示できるiOS用ライブラリです。 アクセス解析機能が組み込まれているため、アクティブユーザー数や起動された時間、地域などの統計情報を確認できます。 【8】String SDK 「String
Android, QCAR | 23:20 | 今月(2010年10月4日)にQualcomm社からAugmented Reality SDK(QCAR)が発表されました。Android向けのARアプリケーションを比較的簡単(たぶん)に開発できます。 このSDKが対象にしているのは画像ベースのARです。位置情報、方位、端末の姿勢を利用したARとは異なります。 画像ベースのARでは、物体認識、物体位置の特定、オブジェクトの表示、といった処理が必要です。QCARは、物体認識と物体位置の特定までの処理を担当してくれます。オブジェクトの表示だけは、OpneGLなどで自分で実装する必要があります。 また、物体認識に必要な特徴点データも、QCARの開発用サイトで作成することが出来ます。開発用サイトに画像をアップすると、特徴点データを生成してくれるのでダウンロードしてアプリに組み込みます。 この特徴点
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く