アップルがWWDC23で発表した「Apple Vision Pro」。ティム・クックCEOはもともとVRではなくARをやるというようなことを言っていたので発表自体に驚きはなかったんですが、問題はどこまで実現してくるんだということでした。結果としてはこれまでの悪いうわさをすべてひっくりかえすような発表だったと感じています。 アップルが何より強いのは自社でハードウェアの設計/製造ができて、OSレベルでソフトウェアの設計ができること。膨大なセンサーを搭載し、それを制御するための「R1」という新型チップを設計することで、VRに起きがちな遅延の問題を乗り越えてきました。 これまでのVR/ARデバイス、たとえばメタの「Quest Pro」のような一体型のタイプにはいくつも限界がありました。OSはAndroidベースだし、チップもパワーが足りないため、思ったとおりに動いてくれずにイラッとしてしまう。メタ
「Apple Vision Pro」を先行体験! かぶって分かった上質のデジタル体験(1/3 ページ) Appleが「初の空間コンピュータ」として発表した「Vision Pro」。これをかぶって本体を右手でつかみ、人差し指がくる位置にあるデジタルクラウン(リュウズ)を押し込むと、目の前にiPhoneのホーム画面にあるようなアプリのアイコンが突然、現れる。 どんなアイコンがあるのだろうと視線を動かすと、視線の先にあるアイコンが立体的に動いて反応する。起動したいアプリアイコンに視線を合わせた状態で、右手の親指と人差し指をくっつけると、アプリが起動する。 話題のVision Proを一足早く、日本のメディア関係者としては1人だけ先行して体験する機会を得た。筆者がこれまでAR/VRのヘッドマウントディスプレイ(HMD)に対して懐疑的で「Appleには出してもらいたくない」と否定的なことばかりを書い
iPad Pro(2020モデル)にLiDARセンサーが搭載されてから、1年と3か月ぐらいが経過しました。今回はそのLiDARセンサーを使用した3Dスキャンに関しての使い方から注意事項までを書いていこうと思います。 タイトルにはiPhoneと書いていますが、iPad Proでも同じことができます! 2022年3月現在AppleデバイスでLiDARセンサーが搭載されているのは ・iPhone12Pro/Max ・iPhone13Pro/Max ・iPad Pro(2020/2021) となっています。 ↑の画像はPolycamというアプリを使い、3分ほどのスキャンで作成したモデルです。 2022年3月15日追記 10か月以上前の記事を近代化改修しましたが、こちらのnoteの方がiPhone×3Dスキャンについて詳しく説明しているので、よければこちらもご覧ください。 そもそもLiDARセンサー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く