Introduction With GodotVision, you can create games and apps for Apple's visionOS using the Godot Game Engine. Defend Cow Castle, a visionOS game made with GodotVision GodotVision runs a headless Godot instance that controls native RealityKit views. Roughly speaking: Godot is the backend, RealityKit is the frontend. You get the power of the Godot editor AND the awesome native rendering features o
ドキュメントはこちら。PolySpatial visionOS 1.1.6の場合 An Apple Silicon Mac Unity2022.3.18以上 Xcode 15.2以上 visionOS 1.0以上 Unity PolySpatial開発の前提の話 Unity PolySpatialとは UnityでvisionOS向けアプリを作成するためのパッケージです。 visionOS向けのプロジェクトのビルドをUnityエディタから行います。 ① Mixed Reality Volume Immersive Space ② Virtual Reality - Fully Immersive ③ Windowed Apps のアプリパターンを作成できます。 引用:UNITE2023 Unity PolySpatial + visionOS について知っておきたいすべてのこと 本記事では
概要 Apple Vision Pro向けアプリの開発にはReality Composer Proを利用してシーンを構築していくのが一般的です。 一方、PolySpatialを用いてUnityで開発を行う場合、基本的なシーン構築についてはUnityが出力したコードおよびアセットですべてが管理されており、Reality Composer Proのアセットは含まれていません。しかし、PolySpatial 1.1.4からはSwiftUIとの連携機能が追加されるなど、Xcodeで行う開発フローを取り込むことが可能となりました。 これを利用しようと思い、自分が開発しているUnityプロジェクトが出力したXcodeプロジェクトにReality Composer Proプロジェクトを追加しようとしたところプチハマりしてしまいました。 調べても記事が見つからなかったので手順をまとめておこうと思います。知
2024年2月、Apple Vision Proの発売月となりました。MESONでは、Apple Vision Proに関する記事を1ヶ月連続で投稿するチャレンジを実施しました。 このチャレンジを通して、MESONメンバーがApple Vision Proに関する技術・デザイン・ビジネス観点における知見や考察を公開し、世の中に発信することができました。MESONのバリューの一つに、「知を通わせる」というものがあります。今回のチャレンジはMESON社内のみならず、日本全体にApple Vision Proの知を通わせることができた取り組みになったと考えています。 ぜひ、メンバー全員の「知」をご覧ください! 2/5:Unity PolySpatialを使ってApple Vision Pro向けアプリを開発する
1971年福井県生まれ。得意ジャンルは、パソコン・デジタルAV・家電、ネットワーク関連など「電気かデータが流れるもの全般」。主に、取材記事と個人向け解説記事を担当。 Apple Vision Pro(以下Vision Pro)を購入して1カ月以上が経過した。「飽きて使わなくなった」という人もいるようだが、筆者はほぼ毎日、便利に使っている。 仕事自体も、Mac+物理ディスプレイ6に対してMac+Vision Proが4、くらいの比率で利用している。 そういう風に使うとなると、仕事環境や周囲の配置自体も、Vision Pro向けの最適化が必要になってくる。 今回はどんなことをしたのか、ちょっとまとめてみたいと思う。 イベント告知:Vision Proがドレスコードの「Apple Vision Proパーティー」第2回、秋葉原UDXで3月28日(木)開催。持っていなくても参加できます | テクノ
2023年6月のWWDC(World Wide Developers Conference)23で発表され、2024年2月に米国で販売が開始されたApple Vision Proを、はてなのエンジニア5人が入手しました。 ということで、3月初旬に5人がApple Vision Proをつけて、オンライン座談会を行いました。その様子をお伝えします。 Google Meetで座談会をしています 本記事中のApple Vision Proは、使用者がそれぞれ「技適未取得機器を用いた実験等の特例制度」に基づく届出を行い、適切な管理の下に使用しています。 この無線設備は、電波法に定める技術基準への適合が確認されておらず、法に定める特別な条件の下でのみ使用が認められています。この条件に違反して無線設備を使用することは、法に定める罰則その他の措置の対象となります。 座談会の模様はYouTubeでも公開し
概要 PolySpatial 1.1.4が発表されました。アップデートの中で注目なのが、SwiftUIの連携部分が追加された点です。 ただ、visionOSの仕組み上ちょっと癖のある実装となっています。今回は新しく追加されたSwiftUIと連携する方法について解説したいと思います。 SwiftUIはネイティブ実装 いきなり、Unityで開発するんちゃうんかい、という話ですがSwiftUIを利用するにはSwiftによる実装を行わないとなりません。しかし、visionOSの特徴である磨りガラス風のUIを利用できることを考えると一考の余地はあるでしょう。 UnityのオブジェクトとSwiftUIが共存している PolySpatialにおけるSwiftUIの仕組みを見てみると、やや力技と言わざるを得ない実装になっています。実装手順の概要を書くと以下のようなフローで実装していきます。 SwiftUI
概要 MESONではApple Vision Pro向けの開発を積極的に行っています! 今月はApple Vision Proの発売記念ということで1ヶ月記事チャレンジを行っています。この記事はその2/19の記事です。 2/18の記事はこちら(純粋くんと西田はかせ ⋆ 第一話 ⋆) ちなみにアプリ開発も行っていて、第一弾として「SunnyTune」という天気を体感できるアプリを開発し、Apple Vision Proのローンチに合わせてリリースしています! 空間コンピューティング時代における新しい体験作りを今後もしていきたいと思っています! 自分は前回、Unity PolySpatialを使ってApple Vision Pro向けアプリを開発するという記事を書きました。今回はPolySpatialを用いてハンドトラッキングするためのあれこれを書いていきたいと思います。 開発環境 前回同様、
大変だったこと Appleのポリシーで色々取得することができない. 以前の記事 でも紹介した通り、AppleはVisionPro においてはユーザーのプライバシー保護の観点から様々な情報を開発者に 隠蔽した状態 で提供します。 隠蔽される情報の例としては以下のとおりです ユーザーの両手の位置(HandTrackingの座標) 視線ベクトル(Gaze) カメラ映像(ColorTexture) これは変に開発者に情報を提供すると、特にカメラ映像とかに関しては映っている人の情報だったりを吸い出せてしまうため、妥当な判断だと思います。 しかしながら、入力値が色々とれなくなるため、かなり工夫しないと従来通りのiPhone/iPad 用ゲームのような開発テクニックは使えません。 その代わり以下のComponent/Classが用意されています VisionOSHoverEffect : Hoverされ
「Apple Vision Pro」での3Dキャラクターに付いてきてもらう手順をまとめました。 ・Xcode 15.2 (Apple Silicon) 前回 1. VRM を usdz に変換「VRM」をusdzに変換する手順は、次のとおりです。 (1) モデルの準備。 「ニコニコ立体」から「ニコニコ立体ちゃん」をダウンロードします。 (2) Blenderを起動して「VRM Add-on for Blender」をインストール。 リポジトリからアドオンファイル (VRM_Addon_for_Blender-release.zip) をダウンロードし、Blenderの「プリファレンス→アドオン→インストール」でインストールし、チェックボックスで有効化します。 (3) Blenderのメニュー「ファイル → インポート → VRM」でニコニコ立体ちゃんのVRMファイル (AliciaSoli
本記事でやりたいこと: visionOSで、ARKitのScene Reconstructionで検出したシーンのメッシュを可視化したい。 iOSでScene Reconstructionのメッシュを可視化した例。これをvisionOSでやりたい。 方法のひとつとしては、Xcodeの "Visualizations" 機能を使えば、ポチッとチェックを入れるだけで可視化できる。 が、そうではなくて、プログラムからシーンのメッシュを描画するにはどうするか、という話。 公式サンプルの実装は何が足りないか visionOSにおけるARKitのScene Reconstructionについて、公式チュートリアルが公開されている: 以前はドキュメントだけだったが、サンプルコードも最近公開された。(※ ARKitなのでVision Pro実機でしか動作確認できない(シミュレータでは動かない)) このチュ
@ikkou です。ウェブにおける XR である WebXR を長らく推しています。 ㊗ Apple Vision Pro 発売 🎉 先日 2024/02/02 に US で Apple Vision Pro が発売されました! 昨年 6 月の WWDC23 にあわせて発表された Apple Vision Pro ですが、その時点で Safari on Vision Pro の WebXR Device API 対応が示唆されていました。 その後、Apple Vision Proデベロッパラボで 2 度ほど実機に触り、実際の挙動を確認していましたが、例によって NDA 厳守なので Simulator の話もともかく実機の話は控えていました。が、めでたく発売日を迎えて実機を以て触れられるので Simulator では確認できない部分も含めて WebXR Device API と関連する A
概要 いよいよApple Vision Pro、発売されましたね。MESONでは今後、Apple Vision Proの開発に力を入れていきます。第一弾として「SunnyTune」という、天気を体感できるアプリを開発し、Apple Vision Proのローンチに合わせてリリースしました! 空間コンピューティング時代における新しい体験作りを今後もしていきたいと思っています! X(旧Twitter)のポストを見ても、Apple Vision Proは好意的に受け入れられている印象です。結構街中で使っている動画なんかも上がっていて、意外と早く街中でARゴーグルやグラスが付けられる未来がくるのかな、とワクワクしています。 前述の通り今後もApple Vision Proに力を入れていく予定なのでその一環として、MESONでは1ヶ月毎日記事投稿チャレンジとして、Apple Vision Pro関連
過去数か月に開催された世界各地のApple Vision Proデベロッパラボで、AppleのエキスパートがvisionOSに関するさまざまな疑問にお答えしてきました。エンティティ、イマーシブ空間、コリジョンシェイプなどの新しい概念に関するインサイトを含む、よくある質問への回答を紹介します。 ジェスチャを使ってエンティティを操作するにはどうすればよいですか?ジェスチャベースのエンティティインタラクションを有効にする場合、次の3つの重要な要素があります。 エンティティにInputTargetComponent(英語)があること。これがないと、ジェスチャ入力が受信されません。 エンティティにCollisionComponent(英語)があること。CollisionComponentの形状(英語)は、ジェスチャが実際にヒットする領域を定義するため、エンティティとのインタラクションのためにはコリジ
実機でビルドした際に、カメラに何も映らず真っ暗になってしまうという時の対処法です。 iOS向け Unity 2021.3.4f1 ARFoundation 5.0.0 PlayerSettingsを見直す Edit > ProjectSettings > Player を選択。 iOSタブのOtherSettingsを開き、下記赤線の項目が入力されているか確認する。 XR Plug-in Managementを見直す Edit > ProjectSettings > XR Plug-in Management を選択。 下記にチェックが入っているか確認する。 URP Assetの設定を見直す URPを導入している場合、URP Assetに適切な設定がされていないと正常にカメラが動作しません。 (URP Assetとは、Create > Rendering から生成できるアセットファイルのこ
導入手順 基本的にはマニュアルに基づいて行います HW編 AppleSillicon 搭載Mac を購入します Intel Mac はサポート対象外らしいです 自分はVisionOS検証用にサブ機兼副業用Macを買い替えました(30万円の出費) Unity編 Unity2022.3.12f1 をUnityHUB経由で導入 VisionOS とiOS モジュールの追加が必須です 基本Unity2022.3.11f1以降が必須 Unityのプロジェクトを新規で作成 URP が必須なので3D(URP)テンプレートから作成がおすすめ PackageWindowから必要なパッケージをいれます Unity Registory にあるもの ARFoundation(AR テンプレートから作ったら導入済み ) Universal RP(URP テンプレートから作ったら導入済み ) AddPackage b
空間コンピューティングでは、アプリやゲームのデザインにおいて新しい可能性が広がるとともに、独自の課題も発生します。WWDC23では、デベロッパがvisionOS向けのデザインを詳しく学べるよう、AppleのデザインチームによってさまざまなQ&Aセッションが開催されました。ここでは、イマーシブ体験のさまざまなレベル、鍵となるタイミング、サウンドデザインに関するインサイトなど、セッション中の会話から要点をいくつか紹介します。 このプラットフォームでの第一印象を優れたものするにはどうすればよいですか?これは当然アプリによっても異なりますが、まずウインドウから始めるのが適しています。ユーザーにアプリを紹介し、イマーシブ体験のレベル管理をユーザーに委ねることができるためです。一般に、ユーザーを即座にフルイマーシブ体験に案内することはおすすめしません。まずユーザーにアプリの基本的なことを理解してもらっ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く