[GDC 2018]西川善司の3DGE:DirectX RaytracingにRTX,Optix,ProRenderにRadeon Rays。“レイトレだらけ”の状況をすっきりさせてみる ライター:西川善司 GDC 2018における3Dグラフィックス技術関連で最大のトピックがレイトレーシングであることに疑いの余地はない。そのうち,MicrosoftがDirectX 12にレイトレーシングパイプラインを統合した「DirectX Raytracing」(以下,DXR)と,実際にそれを「Northlight」エンジンに組み込んだRemedy Entertainmentの事例はすでにお伝え済みだ(関連記事,関連記事2)。 Remedy Entertainmentは早くも自社のゲームエンジンにDXRを統合し,その技術デモを披露した RTXベースのレイトレーシング結果サンプル画像 ここで注意したいのは
[GDC 2018]Oculusが2018年のVR戦略を語る。ソフトウェアの改良点から開発中の「Oculus Go」「Santa Cruz」まで ライター:米田 聡 GDC 2018の3日目となる北米時間2018年3月21日に,Oculus VR(以下,Oculus)主催のセッション「Inside Oculus 2018」が行われた。セッションタイトルどおり,2018年におけるOculusのトピックを語ると言った内容であったため,2018年前半発売予定のスタンドアロン型VR HMD「Oculus Go」の話題が多かったが,ソフトウェア周りや開発中の機器など,それ以外の話題も取り上げられたので,ざっくりとまとめてみたいと思う。 「Asynchronous Spacewarp」で,VRユーザーの裾野が広がる 本セッションは,ソフトウェア周りの話題や,Oculus Go,ハイエンドなスタンドアロ
マックス・プランク研究所ら、単一カメラから手指の追跡をするCNNを用いたリアルタイム3Dハンドトラッキング技術を発表。物で隠れた指も正確に推定 2018-03-17 ドイツ:マックス・プランク情報科学研究所、ザールラント大学、スタンフォード大学、レイ・フアン・カルロス大学の研究者らは、単一RGBカメラでキャプチャした動画からCNN(Convolutional neural network)を用いて手指の追跡をするリアルタイム3Dハンドトラッキング技術を発表しました。 論文:GANerated Hands for Real-Time 3D Hand Tracking from Monocular RGB 著者:Franziska Mueller、Florian Bernard、Oleksandr Sotnychenko、Dushyant Mehta、Srinath Sridhar、Dan C
The GameCube and Wii are exponentially more powerful than either of those consoles. What was a nice enhancement a generation before is now one of the most prominent reasons for using an emulator. Dolphin provides the same enhancement to a vast library of games spanning two full consoles, including many past consoles via the Virtual Console. Many users replay their favorite games on Dolphin because
Details Source codeIf you are an experienced Unity + iOS developer you can download the source code and build the app to your iPhone X but if you just want to try the app you can grab it free from the AppStore: TheParallaxView I cannot give support on how to use Unity and build the app. Only get the source if you know what to do with it. Full source code is available here: TheParallaxView on GitHu
オックスフォード大学発「6D.ai」、標準のスマートフォンカメラのみでリアルタイムに3Dデータを収集できる「6D SDK」クローズドベータ募集開始 2018-03-08 オックスフォード大学から設立されたスタートアップ「6D.ai」は、同大学Active Vision Groupの技術をベースに構築された6D SDKのクローズドベータの募集を開始しました。 6D SDKベータ版では、外部の深度センサを必要とせず、標準装備のスマートフォンカメラを使用して、リアルタイムに密集した3DメッシュをバックグラウンドでキャプチャするAPIが提供します。 また、6D SDKで生成された3Dメッシュを使用したオブジェクトは永続的に配置できるとしており、さらにオクルージョンに対応し、複数のユーザー間で同期することができるとします。
何となく思いついて、LODをパーティクルに適応したところ、出来てしまいました。何の役に立つのかと思ってみましたが、これが思いの外有効そうです。 例えば複数の演出で成り立っているパーティクルの場合、距離に応じて演出を追加していくのもアリかもしれません。 下の場合、LOD0は7個のパーティクルから成り立っていますが、LOD1は4個、LOD2は2個のパーティクルまで削減しています。 他のもいくつか使いみちがありそうですが、同時に機能しないどころかパフォーマンスを悪化させるケースもあります。 今回はソレについて紹介します。 目次 LODとパーティクル Particle SystemにLODを設定してみる で、パフォーマンスは? 描画負荷は削減される パーティクル自体のパフォーマンスはprocedural modeなら効率化 LODよりCullingGroupの方が良いかもしれない 感想 関連 LO
はじめに Unity 2018.1b より Scriptable Render Pipeline (SRP) というレンダリングパイプラインをより細かくコントロールできる機能がリリースされました。SRP の登場により、従来の Forward / Deferred に加え、新たに Compute Shader を活用し SSS などのマテリアルにも対応したハイエンド向け高画質パイプライン(HDRP)と、シングルパスでライトの計算も可能なモバイルや VR において有力な軽量パイプライン(LWRP)が公式の実装として提供されることになりました。さらに、これらはアセットとして提供されるため、我々の手でもカスタマイズ可能で、また一から自分で作成することも出来ます。 本エントリではこの SRP について、新しく追加されたパイプラインをサラッと紹介するのと、公式で公開されているシンプルなサンプルを読み解
進化するVR 外部センサーなしでVive並の高精度なVRが実現か VRやARにおいて「位置トラッキング」は、仮想空間での移動や現実との違和感のない合成を行うため非常に重要です。3Dセンサー及び3Dスキャンソフトウェアを開発・販売しているOccipital社は、1月に行われたCES2018において、VRの位置トラッキングデモを展示していました。今回UploadVRの記者が体験したレポートと合わせて紹介します。 Occipital社の持つ三次元再構成技術を用いた位置トラッキングデモ Occipital社はiPadに取り付けるタイプの3Dセンサー「STRUCTURE SENSOR」、iPhoneに取り付けてMRヘッドセットにできる「BRIDGE」、それらのセンサーを使うためのSDK「BRIDGE ENGINE」といった製品を開発しています。1月に行われたCES2018において、同社はHTC Vi
綺麗なグラフィックを実現するのは8割以上はモデルとマテリアルのクォリティですが、〆としてライティングやポストプロセスも重要な要素の一つです。 ただし、場合によってはライティングのベイクを利用できないといったケースも存在するかもしれません。例えば建築デモなど、部屋の家具が変化可能といったケースです。 日差しの位置やライトの配置など、すべての要素が変化する可能性があります。 今回は、そういったダイナミックに追加/変化するオブジェクトでも綺麗に見せる為に色々と試行錯誤してみた結果を紹介します。 オブジェクトをダイナミックに生成しても、そこまで破綻なく表現出来ています。 壁紙(金属製のカーペット??)の一部を変更すると、部屋の色味も変わります。 目次 手順 事前準備なパート 1. 初期状態 2. ReflectionProbeを追加する 3. Lightprobeを用意する 4.ライトをベイクす
チュートリアル / CharacterArpeggio~3ds Max 2017 キャラクター作成術~ 第6回:リギングその①~人体の構造を理解する~ ※今回の使用ツール:3ds Max 2017 今回はリギングです。ずっと棒立ちだったキャラクターに骨格やコントローラーを入れ、ポーズやアニメーションを直感的につけられるよう仕組みを作っていきます。 まずは、これから組むリグのコンセプトを決めておきましょう。やることやらないことを先にイメージしておきます。 何にでも対応できる万能なリグにはあまり意味はありません。万能リグが出来たとしても、それと引き換えに扱いやすさが損なわれることがほとんどです。 ・対応力よりも扱いやすさを重視 ・シンプルな仕組みできれいな変形 ・モーションデータの汎用性 ・スケールや特殊なデフォームは考慮しない ・別プラットフォームへの出力は考慮しない 以上のように、扱いやす
カーネギーメロン大学、顔の表情やハンドジェスチャの細部な動きと体の大規模な動きを同時にマーカレスで複数人キャプチャできる3Dモデル手法を発表 2018-01-05 カーネギーメロン大学の研究者らは、体の動き、顔の表情、手のジェスチャなどを含む全身の動きを同時にマーカレスでキャプチャする方法を論文にて発表しました。 Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies 著者:Hanbyul Joo、Tomas Simon、Yaser Sheikh 本稿では、複数人の顔の表情、指の動きを含む手のジェスチャなどの詳細なモーションから、胴体や腕の大きなモーションを同時にキャプチャするための新しいアプローチを提案します。 キャプチャには、VGAカメラ480台、HDカメラ31台、Kinectセンサー10台
円筒と球の衝突判定って簡単なのでは? 円筒って便利ですよね? キャラクター同士の衝突判定を考えたとき、「キャラクターの当たり判定を球にして移動の軌跡を円筒にする」っていうのが一番最初にぱっと思いつきますよね?そうでもないですか? だけどネットにそこまで落ちてない ネットで衝突判定のアルゴリズム探すんだけど、検索方法が悪いのかいまいち見かけない気がする。 簡単だから 仕方ないので図を書いて考えると、あっさり答えが出てしまった。 なるほど、線分と球の衝突判定をほんの少し拡張しただけなので、あえてネットにまで書く必要がないんですね。(というか、円筒って太さ持った線分だから、そんなの当然の如く分かるでしょ的スタンスなのかもしれない。) 実装は? 適当な図(左が線分と球、右が線分から円筒にする考え方) 線分と球の衝突判定 bool KSphere::operator*(const KSegment&
2 つの図形の衝突判定 (コリジョン判定) のアルゴリズムをまとめます。 図が用意できておらず見難いですが、ご勘弁を。 太字はベクトルを表します。 線分と三角形 線分を p+tl、 三角形を (1-u-v)q0+uq1+vq2 で表します (t, u, v は媒介変数)。 Tomas Moller のアルゴリズム を Cramer の公式で解きます。 0.0≦t≦1.0, 0.0≦u, 0.0≦v, u+v≦1.0 なら交差と判定します。 半直線と三角形 線分と三角形の場合と同様の計算を行います。 0.0≦t, 0.0≦u, 0.0≦v, u+v≦1.0 なら交差と判定します。 点と球 点と球の中心の距離の 2 乗を求めて、 その長さが球の半径の 2 乗以下なら交差と判定します。 線分と球 線分の始点から終点へのベクトルを v、 線分の始点から球の中心へのベクトルを c とします。 v・c
アップルが、3Dセンサーを開発するPrimeSense社の買収を完了したと報じられています。 イスラエルに本社を置くPrimeSense社は、3D空間の物体を認識するセンサーやチップ・ソフトウェアを開発。その技術をマイクロソフトにライセンス提供し、Kinectに採用されたことなどで知られています。 アップルによる今回の買収額は360万ドル(約360億円)にものぼるとされていますが、むしろそれが安い買い物ではないかと思わせる動画が公開されていました。 下の動画は、テクノロジー系ブロガーのRobert Scoble氏のCES2013で取材の模様。 デモに使われているセンサー(頭上に設置)は、 近赤外線を照射して空間の物体を認識し、プロジェクターでテーブル上に映像を映し出すというものです。 下はバーチャル・キーボードのデモ。奥行きを認識するため、浮かせた指とキーを押した指の識別ができるとのこと。
WebGLを基本から学ぶ授業. この記事はWebGLを基本から教える記事である。 他のサイトに載せてあるような昔のOpenGLが更新された記事ではなく、 時代遅れのアイデアを捨てて、 WebGLとは何か、WebGLがどうやって動くかについて、理解へと導く、完全に新たな記事である。 WebGL2に興味があればこれを参照して下さいwebgl2fundamentals.org 基本 基本 WebGLの仕組み WebGLのシェーダーとGLSL WebGL State Diagram 画像処理 WebGLにおける画像処理 WebGLにおける画像処理。続き 2Dでの移動、回転、拡大縮小、行列計算 二次元での移動 二次元での回転 二次元での拡大縮小 二次元での行列数学 3D 三次元の正投影 三次元透視投影 三次元のカメラ Lighting 三次元指向性光源 三次元点光源 Spot Lighting St
はじめに こんばんは、代表の堂前です! 技術的な話を書くのがだいぶ久しぶりになりました・・・。 今月までは忙しかったので、これからはたくさん書けるといいな〜と思っております。 それでは今回から数回にかけて、Unity描画のバッチング処理についてまとめていきます。 初回は「Static Batchingの処理の中身」についてお届けします。 ※検証したのはMacのUnity5.5.2f1になります。 バッチング処理とは? まず簡単に、バッチング処理とはというところと、その効果について触れます。 Unityのドキュメントはこちらになります。 ざっくりと言うと、同じマテリアルの複数のオブジェクトがある際、それを予め一つにまとめて描画するという仕組みです。 以下がその例になります。 今回のシーンはオブジェクトが8つあってそのマテリアルが全て同じ状況で、右2つはバッチングがON/OFFの時のFrame
この記事ではHTC Viveでも使われているLighthouseというポジショントラッキング技術について、数式を交えつつ解説します。1 ポジショントラッキングとは 3次元空間上において、ヘッドマウントディスプレイ(HMD)などのデバイスやパーツなどの位置や向きを検出する仕組みです。特にVRの分野で活用されることが多く、HTC ViveやOculus RiftなどのHMDでVR空間の中を動き回れたり、コントローラを持ってVR空間に配置されたモノを掴めたりするのは、ポジショントラッキングによってVR空間で自分やコントローラの位置や向きを計算できているからです。 今回紹介するのはポジショントラッキングの中でもOutside-inトラッキングとして分類される、Lighthouseというテクノロジーです。Outside-inのトラッキングとは、外部にトラッキングのための特別なセンサーなどを設置し、H
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く