DEMO VIDEOS Get to know everything Vimeo can do for your business. Watch now
iOSでもARしよう 前回の「3DモデルがアニメーションするARをOpenGL ESで作る」までは、主にAndroidでAR(拡張現実)を実現する方法について解説してきました。 スマートフォンの2大勢力としてiPhoneとAndroidが挙げられる以上、iPhoneでARを実現する方法も書かなけれ消化不良というものでしょう。「モバイルARアプリ開発“超”入門」の第5回はiPhoneやiPadで使用されているiOSにスポットを当ててみます。 iOSで使用可能なARライブラリ8選 iOSで使用可能なARライブラリは各社開発を進めているため、実用に耐え得るもののみに絞っても、かなりの数が出そろっています。まずは、それぞれのライブラリについて、各社のサイトやデモアプリを動かした結果を基に簡単に見ていきます(アルファベット順)。 また、以下の一覧では認識方法を以下の3種類に分けて記述していきます。
UnityでのARアプリケーション開発 株式会社コンセプト 林建一 アウトライン 1. 会社概要とARについて 2. ARアプリケーション開発におけるUnity 1. ARアプリケーションの仕組み 2. Unityのメリット 3. Unityプラグインについて 4. UnityプラグインによるAR機能の実装 5. ARプラグインの紹介 主に対象となる方 • モバイルARに興味があるゲーム開発者の方 • Unityプラグインの開発に興味が有る方 • Unityでカメラデバイス制御/表示したい方 向けに資料をつくりました. http://qoncept.jp/ar/seminar/unity_20110716.pdf プロフィール 株式会社コンセプト 取締役/クリエイティブ・ディレクター 林 建一 博士(工学) 略歴 1981年10月19日生まれ 2004年3月 大阪
Microsoftが、NUI(ナチュラルユーザーインタフェース)研究の一環として、3D 映像の物体を手で操作できる技術「Holodesk」や手のひらを入力デバイスに変えられる「OmniTouch」などの新技術を発表した。 米Microsoftの研究部門であるMicrosoft Researchは10月20日(現地時間)、3D映像の仮想物体を手でつかんだり動かしたりできる技術「Holodesk」を発表した。 同技術は、Microsoftが取り組んでいるナチュラルユーザーインタフェース(NUI)のプロジェクトの1つ。NUIは、ジェスチャーや音声などで直感的に、自然に操作できることを目指すUIで、同社のゲーム端末Xbox 360で利用できるコントローラー「Kinect」にもこの取り組みが反映されている。 Holodeskはまだ研究段階だが、ネットワークを介したボードゲームや遠隔地間での製品プロト
String™ Augmented Reality http://www.poweredbystring.com/ ライセンス ライセンスはこちら。 iPhoneアプリの開発に使う事を考えると、ちょっと高い様な気もしますがそんなに数売れるものでも無いのでしょうがないですかね。 使用事例 このライブラリが公開される前から公開されていたこちらのiPhoneアプリで実際の反応速度やどんな事が可能か体験出来ます。この記事を書くためにアプリページを確認したらドラゴンのデモが追加されたみたいです。 以下の動画はデモの1つのARゲーム。迫り来るミイラが持っている石版の色と同じ色のパネルをキャラが立っている台座の周囲から見つけ、タップするとミイラを倒す事が出来ます。 スニーカーを表示。 3D空間でお絵かき。 壁の額縁からドラゴン登場 その他に既に色々な使用事例が有ります。 牛乳パックの周りに広場が出現。
記事内に広告を含む場合があります。記事内で紹介する商品を購入することで、当サイトに売り上げの一部が還元されることがあります。 OpenCVベースのARライブラリ「ArUco」を紹介します。 ライブラリの概要については、以下のとおり。 The main features of ArUco are: -Detect markers with a single line of C++ code -Detection of AR boards (markers composed by several markers) -Requires only OpenCv (>=2.1) -Up to to 1024 different markers -Trivial integration with OpenGL -Fast, reliable and cross-platform because rel
サービス終了のお知らせ NAVERまとめは2020年9月30日をもちましてサービス終了いたしました。 約11年間、NAVERまとめをご利用・ご愛顧いただき誠にありがとうございました。
2月26日に発売されたばかりの任天堂の新携帯ゲーム機『ニンテンドー3DS』だが、内蔵ソフトの『ARゲームズ』がかなり面白い。『ニンテンドー3DS』に付属されてくるARカードをカメラで認識させるとそこに任天堂のキャラが出てくる。さらにはゲームが遊べたりとなかなか熱いものだ。そんな『ARゲームズ』で遊んで気になったことが。 「このARって手描きでも認識されるのだろうか……」 という疑問。ガジェット通信編集部一同はその疑問が気になりだしてとうとう検証することになった。今回の検証内容は星のカービィを手描きで描いて認識させることができるのかというものだ。 カードと全く同じ絵にすれば理屈から言えば認識するはずなのだが……。 カービィを描くこと数分。一向に認識されず、諦めかけていた編集部一同。どうしても認識させたいという気持ちから、諦めることなくさらにクオリティを高めるべくカービィを描き続けたのだ。 そ
チョウが情報やクーポンを運ぶiPhoneアプリ「iButterfly」で実証実験を行っていた電通とバタフライが、新たにソーシャルゲーム「iButterfly Plus」を開発した。 電通とバタフライが2月25日、スマートフォン向けソーシャルゲーム「iButterfly Plus」を発表した。3月末から国内のiPhone向けにサービスを開始する。今後ディー・エヌ・エー(DeNA)のモバゲータウン for Smartphoneおよびmobageプラットフォームでも提供予定だ。 iButterfly Plusは、iPhoneのカメラを通して街をのぞくと見える「チョウ」をつかまえて楽しむゲーム。好きな街に花の種をまいて育てると、その土地だけの珍しいチョウを手に入れることもできるという。基本プレイは無料で、アイテム課金を行う予定だ。 このアプリのベースとなっているのは、電通とバタフライが共同で行って
Mixare iPhoneはセカイカメラ風AR(拡張現実)を実現するソフトウェア。 Mixare iPhoneはiPhone用のオープンソース・ソフトウェア。あくまでも個人的な意見として、TechCrunch50ではじめて目にしたセカイカメラの衝撃に比べて、現状の進み方はちょっと残念な気がしてしまう。もっと凄い未来が見えていた気がしていた。 Google Buzzが大量に浮遊 iPhoneを掲げるという行為自体が一般化するのは難しいかも知れないが、AR(拡張現実)の使い方としてとても面白い試みに思えたのだ。もしあなたが同様のソフトウェアで自分のアイディアを実現したいと思うならばMixare iPhoneを使おう。 Mixare iPhoneは以前紹介したMixareのiPhone版だ。これでAndroidとiPhone、両方が揃ったことになる。単体でも十分動作するが、本来はMixare i
米Qualcommが、同社が推進するARサービス「Vision based Augmented Reality」(以下、Vision Based AR)に対応するAndroidアプリを開発するためのSDKを公開した。同社サイトから無料でダウンロードできる。 Vision Based ARは、カメラを通じて見たものにグラフィックを重ねて表示する方式のARサービス。端末側では、カメラを通じて得られたデータを処理することで対象物を認識し、対象物にひも付いたグラフィックをディスプレイ上に表示する。 ARのグラフィックを表示するには、画像の取得やマーカー検出、CG合成を瞬時に行うなどの処理が必要になるが、昨今のAndroid端末にはこうしたデータ処理をこなせるプロセッサやグラフィックエンジンを組み込んだチップが搭載されるなど、ARアプリを展開する環境が整ってきたことから、SDKを公開したという。 Q
ライブビュー上で何かをするというアプリ2つを紹介してみたいと思います。 まずは、あのセカイカメラでお馴染みの、赤松氏の最新アプリ「DecorReality」。 セカイカメラでは、iPhone上のライブビューにリアルタイムで商品などの説明タグが表示されたりしていましたが、このアプリでは装飾フレームが表示され、しかもセカイカメラのデモ映像同様、リアルタイムでこれらのピクチャが動きます。写真ではわかりにくいですが、カメラを向けた飼い猫を捉えつつ、その周りではバラの花が常に動いていて、良い感じのところでキャプチャするという仕組みです。 キャプチャする。はい、現時点ではカメラアプリのような写真撮影機能はなく、スクリーンショットと同じ要領で、Homeボタン+起動ボタンで撮影し、フォトアルバムに保存するという仕様というか裏技というか、そんな活用が可能です。 予め用意された、プリセットとしての固定フレーム
iPhoneの内蔵カメラの扱いは紆余曲折あって、多くのデベロッパーが苦労(というか快楽?)しています。しかし、先日大きな動きがあったので、これまでの経緯を含めてまとめておこうと思います。 第0章 iPhone OS 2.0からiPhone OS 3.0までの公式SDKでのAPIとしては、ユーザが写真を撮るためのユーザ・インターフェースを表示し、撮影した後の画像を取得できる機能が提供されていました。これらのAPIだけではアプリケーション側からカメラの画像がリアルタイムに取得できず、ライブ・ビューに他の画像などを重ねることもできません。いずれもAR的手法を実現する上で欠かせない機能なんですけどね。 ただし、非公式には存在しているAPIが結構沢山あって、柔軟なObjective-CとCocoa Touchの特性故に、実際に利用することもできます。このようなハック的手法で、公式にはできないようなカ
OpenGLESでのマウスピッキング 前回までのソーコードで、AR空間上にオブジェクトを浮かべて表示することができた。となると、次はこのオブジェクトをタッチしたときに、何らかの情報を表示したくなるだろう。タッチしたオブジェクトが通常のUIViewであれば、CocoaのAPIを使えばいい。だが、今回はOpenGLを使って描画しているので、タッチ判定は別の方法で行う必要がある。 つまり、画面上の座標から、そこに表示されているOpenGLのポリゴンを取得する必要があるのだ。これは、マウスピッキングと呼ばれるテクニックになる。フルのOpenGLであれば、マウスピッキングを行うために、セレクションモードと呼ばれる状態が用意されている。だが、iOSで提供されているOpenGLESでは、セレクションモードを利用することができない。したがって、別の手段を考える必要がある。 そこでここでは、ARオブジェクト
AR空間を構築する 「現実」であるカメラ画像の上に重ねるための、AR空間を構築することを考えよう。AR空間は、自分を中心とした球体の空間として捉えることができるだろう。この球体中に種々のオブジェクトを配置する。そしてiPhoneのカメラ機能を使って、その一部を切り取って表示するわけだ。 このようなことから、AR空間を実現するための技術としては、3D空間を取り扱うことが求められる。その実装としては、OpenGLを使うのが適当だろう。そこで、まずはサンプルアプリにOpenGL環境を組み込むとしよう。サンプルのプロジェクトには、ARViewというUIViewのサブクラスがある。このビューでOpenGLの表示を行うものとする。 UIViewでOpenGLの表示を行うには、まずビューのレイヤーとしてCAEAGLLayerを利用する。そして、OpenGLのコンテキストを表すEAGLConextを作成し
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く