![Google・Niantic・Appleが相次いで仕掛ける「VPS」とはなにか【西田宗千佳のイマトミライ】](https://cdn-ak-scissors.b.st-hatena.com/image/square/471a195b51f5d4f8e4af00ae114e622cfd2ad48c/height=288;version=1;width=512/https%3A%2F%2Fwww.watch.impress.co.jp%2Fimg%2Fipw%2Flist%2F1412%2F862%2Fm14.jpg)
小田急のOOH×XR実証実験にpalanARが採用!XR広告と3Dビジョンが融合 ARビジネスpalanAR株式会社palan小田急電鉄株式会社株式会社小田急エージェンシー 14時間前 リアルバーチャル社がメタバースでの市場調査を開始!精度の高さに信頼の声も リアルバーチャル株式会社VR市場調査体験調査ビジネスVRメタバース 2024/04/17 18:00 KATWALK向けVRゲーム「ゴーストきゃぷちゃー」稼働開始!RED° TOKYO TOWER 体験施設VRゲームKATWALKRED° TOKYO TOWER株式会社デジタルリージョンゴーストきゃぷちゃー 2024/04/16 18:00 企業向けメタバース空間レンタルサービス開始!就活生や内定者と気軽に対話可能 VRスマホVRアプリメタバース株式会社Xメタバース空間レンタルサービスメタバース就活 2024/04/15 18:00
Home » WebARの8th WallがARエンジン「Reality Engine」発表、様々なデバイス向けにコンテンツを展開可能 WebARの8th WallがARエンジン「Reality Engine」発表、様々なデバイス向けにコンテンツを展開可能 ブラウザベースのARプラットフォームを開発する8th Wallは、新バージョンのARエンジン「Reality Engine」をリリースしました。PCブラウザやAR/VRデバイスといった異なるハードウェアへの展開を、開発側の負担なしに実現する機能”Metaversal Deployment”を備えています。 8th WallのARエンジンはブラウザベースのAR、いわゆる「WebAR」の開発に特化しています。2019年のローンチ以降5万以上のアプリに利用され、スマートフォンARを用いた企業広告の普及にも貢献してきました。 デバイスごとにAR
新エネルギー・産業技術総合開発機構は、「ハイブリッド量子化ディープニューラルネットワーク(DNN)技術」「進化型仮想エンジンアーキテクチャ技術(aIPE)」「リアルタイムSLAM処理技術」を開発した。 新エネルギー・産業技術総合開発機構(NEDO)は2020年6月18日、ソシオネクスト、ArchiTek、豊田自動織機と共同で、「ハイブリッド量子化ディープニューラルネットワーク(DNN)技術」「進化型仮想エンジンアーキテクチャ技術(aIPE)」「リアルタイムSLAM処理技術」を開発したと発表した。 これらの技術を導入した「進化型、低消費電力AIエッジLSI」を試作評価したところ、AI(人工知能)認識処理と画像処理の電力効率が汎用GPUの10倍以上、リアルタイムSLAMの時間がCPUの20分の1に改善した。低消費電力、低遅延、低コストのマシンビジョン、セキュリティ、見守り、車載センシングシステ
pySLAM v2 Install Requirements Ubuntu 18.04 Ubuntu 20.04 and Ubuntu 22.04 MacOS Docker How to install non-free OpenCV modules Troubleshooting Usage Supported Local Features Datasets KITTI Datasets TUM Datasets Camera Settings Contributing to pySLAM References Credits TODOs Author: Luigi Freda pySLAM contains a python implementation of a monocular Visual Odometry (VO) pipeline. It supports many cla
iPhone Xで撮影できちゃうって。 これまで、人物の顔をスキャンして3Dモデルを作成するには、高価な機材が必要でした。ですがペンシルベニア州のカーネギーメロン大学では、普通のスマートフォンでスローモーション動画を撮るだけで、それができてしまう技術を開発しています。 NEW ATLASいわく、この技術にはAIのアルゴリズムが利用されており、素材となるスローモーションはたった15秒~20秒でOKとのこと。そして3Dモデルは、およそ30分で生成されます。 Video: CMUComputerScience/YouTube2段構えで正確なレンダリングを行う人間の顔を再現するのは非常に難しいらしく、どこかが微妙に違うだけで現実味が損なわれてしまうのだそうです。ですがカーネギーメロン大学によりますと、これには2段階のプロセスを採用することで正確な3Dモデルが作れると説明されています。 まずはSLA
iPad Pro (2024) review: So very nice, and so very expensive
Twitter’s head of trust and safety Ella Irwin has resigned, the now-former executive confirmed to Reuters on Thursday. Irwin took over for Yoel Roth, who famously left the company during the ear Boeing and NASA said Thursday that the first crewed flight test of the Starliner capsule would be further delayed due to a new crop of technical issues with the spacecraft. The first crewed mission wa
In the first part, we took a look at how an algorithm identifies keypoints in camera frames. These are the base for tracking & recognizing the environment. For Augmented Reality, the device has to know more: its 3D position in the world. It calculates this through the spatial relationship between itself and multiple keypoints. This process is called “Simultaneous Localization and Mapping” – SLAM f
2019年9月30日 13時9分 リンクをコピーする by ライブドアニュース編集部 ざっくり言うと Google検索に動物をAR表示する機能が実装され、話題になっている スマホなどで動物の名前を検索し、等身大の動物を3D表示できるというもの SNSでは「再現度が高い」と好評で、様々な動物の写真が投稿されている 「これまじでリアル。ちょっと怖いくらい」「動物飼えないマンション、アパート住まいの人に朗報」――。グーグルのAR(拡張現実)検索機能が、SNS上で盛り上がっている。 動物の名前をスマートフォンで検索すると、現実にその動物が表示され、写真を撮るなどして楽しめる。 鳴き声も聞ける米グーグルが19年5月の開発者向けイベントで発表した、動物をAR表示する機能が9月下旬までに、日本語にも対応した。ARに対応するジャンルは今後増えるとみられる。 ARに対応したスマートフォンで、イヌ、ネコ、ライ
オックスフォード大学発のスタートアップである6D.aiは、スマートフォンのカメラのみを使って現実世界を撮影し、撮影したムービーから即座に3Dマップを作成する技術の開発を行っています。高い技術力を持っているとして注目を浴びている6D.aiが、「複数のスマートフォンカメラで460平方メートルの広さを持つ空間を撮影し、それぞれの情報を融合させて3Dマップを作る」というデモムービーを公開しました。 New World Notes: Watch: Real World Location Virtually Recreated to Scale in Minutes https://nwn.blogs.com/nwn/2019/08/volumetric-mirror-world-mapping-6d_ai.html 6D.aiのCEOであり共同創業者でもあるMatt Miesnieks氏は、AR分野
Facebookなど、現実的な3D環境でエージェントを高速訓練できるプラットフォーム「Habitat」と写実的屋内3Dデータセット「Replica」を公開 2019-06-18 Facebook AI ResearchやFacebook Reality Labsなどによる研究チームは、写実的な3D環境でエージェントを高速で訓練できるプラットフォーム「Habitat」と写実的3Dデータセット「Replica」を発表しました。 Habitat 論文:Habitat: A Platform for Embodied AI Research Manolis Savva ¹,⁴ Abhishek Kadian ¹ Oleksandr Maksymets ¹* Yili Zhao ¹ Erik Wijmans ¹,²,³ Bhavana Jain ¹ Julian Straub², Jia Li
\[\def\mbf#1{{\mathbf #1}} \def\SO(#1){{\mathrm{SO}(#1)}} \def\so(#1){{\mathfrak{so}(#1)}} \def\SE(#1){{\mathrm{SE}(#1)}} \def\se(#1){{\mathfrak{se}(#1)}} \def\skew#1{{\left[ #1 \right]_{\times}}}\] なぜリー代数を用いるのか¶ 視覚情報ベースのSfMは,カメラから得た視覚情報を用いて,各視点におけるカメラの姿勢とランドマークの3次元座標を求める問題である.一方で,視覚情報ベースのSLAMはカメラから逐次的に得られる視覚情報を用いて環境地図とその中の相対的なカメラ姿勢を求める問題である.これらの問題では,カメラ姿勢とランドマークの3次元座標をパラメータとして最適化問題を解くアプローチがしばしば用い
先日勉強会でVisual SLAMについて発表しましたが、そこではカメラを用いたVisual SLAMについてのみ紹介しただけでした。 takmin.hatenablog.com 今回はカメラを用いたものだけでなく、RGB-DセンサーやIMUを用いたVisual SLAMの研究についてもまとめました。 ただ、Visual SLAMの研究はとても膨大なので、紹介する研究の数はかなり絞り込んでいます。そのため、「サーベイ」ではなく「概観」という表現にしています。 20190307 visualslam summary from Takuya Minagawa www.slideshare.net というわけで、今回の調査はなかなかしんどかったです。 slam系論文、デップラで認識しました系とくらべて全然読み飛ばせない。大意を掴むだけでも結構時間がかかってしまう。 — Minagawa Taku
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く