“音声のAR”プラットフォーム開発のGATARIが資金調達 秋葉原にスタジオ開設 株式会社GATARIは第三者割当増資による資金調達を実施、これまでの累計調達額が1億円を超えたとのことを発表しました。今後、同社は音声ARプラットフォーム「Auris」への事業投資や採用活動へ注力。また「Auris」の体験施設「GATARI 秋葉原スタジオ」を東京・秋葉原にて3月1日に開設します。 第三者割当増資の引受先は、W ventures、OLM ventures、東大創業者の会応援ファンド、毎日みらい創造ラボ、名古屋テレビベンチャーズ、国光宏尚氏、小泉直也氏、濱本暁氏、馬場健氏です。GATARIは事業投資および採用活動を本格化し、「Auris」の応用・実用化に向けてプロダクト開発・運営に取り組む、としています。 GATARIは2016年に設立した東京大学発のAR/MR開発スタートアップです。同社が開発
iPhone 12 Pro/Pro MAXや、iPad Proに搭載されているLiDARを使って、現実世界をボクセルにしてみたので、その方法を説明します。 Appleの公式サンプル「Visualizing a Point Cloud Using Scene Depth」を改変して作ります。 仕上がり 仕上がりは印象派の絵のようになりました。 【今回作ったもの】 もう少し鮮明な動画はこちら。 https://twitter.com/jugemjugemjugem/status/1353245962127331329?s=20 Appleのサンプルの説明 最初にAppleのサンプルの仕組みについて説明します。 このサンプルは、LiDARのDepth情報をもとに画面にPoint Cloud(点群)を表示する、というものです。 実行イメージは次のとおりです。 【サンプルを実行したときの画面】 では
import UIKit import RealityKit import ARKit //進行方向の管理用enum 上下左右のUIButtonと連動している enum Direction: String { case none = "none" case up = "up" case left = "left" case right = "right" case down = "down" } class ViewController: UIViewController, ARSessionDelegate { @IBOutlet var arView: ARView! @IBOutlet weak var directionLabel: UILabel! //駒の格納用AnchorEntity var knightAnchorEntity: AnchorEntity! //進行方向の指
この記事はTech KAYAC Advent Calendar 2020の19日目の記事です。 こんにちは。CL技術部の藤澤覚司です。 普段はUnityを使ったAR開発などを行っています。前回の記事では、可愛いキツネさんがsoft particleの中を走り回っていましたね。コンコン。 最近サイバーパンク2077が発売されましたね。職場の人間はみんなサイバーでパンクな物が大好きなので、僕もすぐ買いに行きました。 www.spike-chunsoft.co.jp サイバーパンク2077をプレイしていて感じましたが、やっぱりギラギラしているサイバーな街並みを見ていると、テンションが上がってきますね。僕の代わり映えしない日常もギラギラと発光していたらいいのに。だから僕はhololiveを見るための板になっていたiPadをおもむろに取り出しました。 作りたかったもの ARKit3.5から新しく追加
「これからARの開発を始めたいんだけど何から始めたらいいですか?」という質問を受けることが非常に多くなりました。 AR技術に注目が集まり、自分のやっていることにARを掛け合わせることができないかと興味を持ってくれる人が増えていること自体はとても嬉しい一方で、同様の悩みを抱えている方々は一定数いると感じたので、そういった方々の力に少しでもなれるように、自分なりの考えをnoteにまとめることにしました。 本記事は「これからARアプリの開発を始めたいんだけどどうしたらいいかわからない人」のために、よく寄せられる3つの質問に回答する形でおすすめの勉強方法を紹介するnoteです。 注意)本記事は2019年7月時点での筆者が考える最適の方法であり、時間の経過に伴って方法や学ぶべきものも変化すると考えられます。その点にご留意の上、読んでいただけると嬉しいです。 どの技術から始めるのがいいの?近年はARに
ARKitは、Appleが2017年にリリースしたARフレームワークです。当時のARKit 1.0では平面認識しか出来ませんでしたが、ARKit 1.5を経て2018年にリリースされたARKit 2.0では環境マッピングの採用や複数人でのAR共有など、利用できる機能がどんどん増えてきています。 ARKit 1.0の頃はとても機能がすくなかったので、簡単に学習できました。でもARKit 2.0になると多くの機能が追加され、ARKitを始めるハードルが少し高くなってきました。そこで、この記事ではこれからARKitを使い始める人のために、UnityでARKitを使う方法を紹介します。 UnityでARKitを使うための準備 Unityを使ってARKitを始めるには「ARKit Plugin」というプラグインが必要になります。そのプラグインのダウンロード方法とセットアップのための入門記事です。 U
12月12日水曜日に「ペチャバト」のプレスリリースを出しまして、予想以上の大反響を頂いて感激しています。 ARKitにこの1年コミットしてきてようやく成果が出たという感じがしています。まだまだこれからですが、モバイルARのヒット作を自分の手で生み出せたことを嬉しく思います。 ということで、今記事では「ペチャバトを支える技術」をご紹介したいと思います。 ペチャバトを支える技術 Swift 4.2 ARKit 独自技術(企業秘密らしい) アイデアが良かったのと、共有体験のプロセスの簡略化が鍵だったと思います。あそこでCloudAnchors等を使って時間をかけていたら、多くが離脱していたでしょうし、ここまでバズらなかったと思います。 球のアニメーションと当たり判定 ARオブジェクトの座標を操る方法チートシートの記事で、球のアニメーションの方法を紹介しています。 当たり判定については、Scene
WWDC2018で発表されたARKit2.0 WWDCでのビデオからの情報やAppleの公式Documentsに載っている情報を元に書いていきます。 追記 iOS12がリリースされたので、サンプルコードを作りました! 👇👇👇 サンプルコードを作ってわかったことを元に本記事も加筆訂正を加えています。 kboy-silvergym/ARKit-Emperor 新しいARAnchor AREnvironmentProbeAnchor, ARObjectAnchorはARkit2.0で追加された新しいAnchor。ARAnchorクラスを継承している。 今までARPlaneAnchor(ARKit1.0から), ARFaceAnchor(ARKit1.0からiPhoneXのみ), ARImageAnchor(ARKit1.5から)などがあったが、ARKit2.0で新たな2つが追加された。 A
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く