Mixed Reality Toolkit - vNEXTの構造を理解する ~ Unity Etidorとプロジェクト構成編 ~UnityVRMRHoloLensOpenVR Mixed Reality Toolkitの次期構想がついに形に Mixed Reality Toolkitはライブラリとしては現状Ver.1としてHoloLens/Windows Mixed Reality両対応を目指したものとなっています。このライブラリの次のバージョンとして検討されているのがvNEXTと呼称されるMixed Reality Toolkit vNext Alpha v2018.7.0.0です。vNEXTは全てのxR関連デバイスでの開発を実現するコンセプトとなっており、α版が公開されています。 重要なこと α版なので正式リリース前には大幅に情報が変わる可能性があります。特に実装機能がまだイベント周り
経緯 AR_Fukuokaで行われたHoloLensアプリハンズオンの内容を、 まるで自分が手順を作った様に記事した。 AR_Fukuokaで講師をされた吉永様本家資料がSlideShareに公開されました。 HoloLensハンズオン 本記事よりも丁寧に説明されてあるので、 もっと細かな部分を知りたい方はぜひ本家資料を参照してください。 吉永様に感謝ですm(_ _)m 今回やる事 HoloLensでお絵かきアプリを作る。 ドラッグ中にお絵かきできる。 カッコいい。 環境 Windows 10 Unity 5.6.1 Visual Studio 2017 そのほかHoloLendsToolKitなどは適宜インストール。 まずはメッシュが手に追従するものを作る 扱うメッシュを追加 Unityを起動して,好きな3D Objectを追加する。 Name : Cube デフォルトだと大きすぎるので
2018年4月現在ではPreviewの機能なのでお試しの際はご注意下さい HoloLens RS4のver 10.0.17134.1004から3Dアプリランチャーをアニメーションさせるようにすることができるようになりました。 その辺の実装についてはデコシがまとめてくれています(記事のリンク) 本記事では上記記事の応用として3Dアプリランチャーに複数のアニメーションを設定し、ランチャーを見つめたときと見つめてないときでアニメーションを変化させてみます。 複数のアニメーションを持つglTFファイルを作成 まずは3Dアプリランチャーの元となる3Dモデルを作ります(私はBlenderで作りました)。 このときにアニメーション(Blender的にはアクション)を2つ作っておきます。 まずはFBXでエクスポート ここが最大のハマりポイントなのですが、まずはFBXでエクスポートします Blenderから
マイクの音声をリアルタイムに読み取る 前回作ったライブラリを使うことで、翻訳したデータを取得することは可能になります。あと必要なものとして、翻訳したいデータを音声としてサービスへ送るためにリアルタイムに音声データをサンプリングしていく必要があります。色々方法を調べるとUnityだけでできる方法とHoloToolkitを組み合わせる方法がありましたので、紹介します。試した限りはUnityだけの方が安定した品質のデータをとれている気がします。 今回の環境 環境については以下の通りです。 IDE Unity 5.5.0f3 Visual Studio 2015 update 3 Community Edition ライブラリ関連 HoloToolkit-Unity 1.5.5.0 サンプルコード サンプルコートは以下の場所にgithubに公開しています。UnityプロジェクトはHoloLens用
[追記:2018/6/8] コメントがあったので追記します。UnProjectVector()のコードは、記事内にもリンクがありますが https://docs.microsoft.com/ja-jp/windows/mixed-reality/locatable-camera に書かれているものとなります。 HoloLensでQRコードを読み取るのは Locatable camera in Unity に従ってHoloLensで見ている画像を撮影し、ZXingで読み取ればできます。詳しい手順は HololensでQRコードリーダを作ってみた が参考になると思います。 この記事では、QRコードの読み取りだけでなく空間上でのQRコードの位置と向きの検出を行います。 なお、この記事内での「カメラ」はUnityのカメラではなく、HoloLensで見ている画像を撮影するカメラのことを指します。 Z
HoloLens利用者が見ている画面を共有するには、Device Portal経由でMixed Reality Capture(MRC)を使う方法が一般的です。ところが、MRC使うとかなりのタイムラグがあり、利用者と閲覧者の認識がずれてしまうことがよくあります。登壇発表したり、大事なデモをお披露目する時などはタイムラグを計算してかなり気を使わないといけません。 そこで、遅延なくMRCを使用する方法として、低遅延(Low Latency)Mixed Reality Captureが用意されています。また、内部的にはMedia Foundationが使用されていているので、様々な応用や拡張も可能になります。 ソースコードは、GitHubのMixedRealityCompanionKitに含まれています。 https://github.com/Microsoft/MixedRealityComp
HoloLensでジェスチャー処理をするときによく使うのはGestureRecognizerです。これを使えばair-tapやドラッグのジェスチャーを簡単に処理することができます。 しかしこれだけではジェスチャーをしていない時に手がどこにあるかをトラッキングできません。ジェスチャーをしていないときに常に手の位置を把握しようと思ったら、InteractionManagerを使うと良いです。このクラスはインスタンス化することなくstaticに使用します。 InteractionManager.InteractionSourceUpdatedに登録するとHoloLensが手を検出している間、手の位置が変更されたりする度に通知が呼び出されます。このイベントハンドラ内で手の位置を取得すれば、ジェスチャーをしているかどうかに関係なく常に手の位置をトラッキングできます。 InteractionManag
HoloLensの工場出荷状態への戻し方、またはHoloLensを33万3千円の首飾りにする前にやった3つのことHoloLens HoloLensがなんだか調子悪い、そんな時に Resetしたことがある方は何人もいらっしゃると思います。 この記事では Resetしても HoloLensの調子が悪い時の最終手段をご紹介します。 結論 HoloLensを接続した WindowsPCで Windows Device Recovery Toolを実行してすると、HoloLensを工場出荷状態に戻すことができます。 https://support.microsoft.com/ja-jp/help/12379/windows-10-mobile-device-recovery-tool-faq 謝辞 HoloLensでアプリのアップデートが走ったままで終わらず、HoloLens自体のアップデートも始ま
はじめに HoloInkShooterがマルチプレイに対応して、みんなで床を塗れるようになったよ! とゆーことで、今回はHoloLensのアプリにSharingを組み込む方法について、実際にサンプルアプリに組み込みながら、その手順とSharingの仕組みについてばっさり説明したいと思います。 開発環境 MixedRealityToolkit for Unity 2017.2.0p1 MRTP4 サンプルアプリ Sharingを組み込むサンプルアプリとして、最近作った以下のアプリを生贄に捧げます。 https://github.com/arcsin16/HoloPseudoLighting/tree/master これはAir-Tapをすると光る弾が発射されて、発射された弾の近くの床や壁に光が反射しているように見えるアプリです。 githubのプロジェクトにはMixedRealityTool
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く