エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
NeRFのレンダリング表現を3D情報として得る方法 - Ridge-institute R&D Blog
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
NeRFのレンダリング表現を3D情報として得る方法 - Ridge-institute R&D Blog
こんにちは,Ridge-iの関口です.本記事ではNeural Radiance Fields (NeRF) [1]の技術で場を学習したネ... こんにちは,Ridge-iの関口です.本記事ではNeural Radiance Fields (NeRF) [1]の技術で場を学習したネットワークから3D情報を取得する方法についてご紹介したいと思います.といっても著者らのオリジナル研究のプロジェクトページ上にあるスクリプトの解説に近いのですが,ウェブ上にあまり情報がなかったので書き記しておきたいと思います. NeRFは任意視点の画像をレンダリングできますが,あくまで2Dとしての見え方を推定しているものです(正確に言えば,NNに対して座標とその座標を覗き込む角度を入力として,そのときの点の色と密度を推定する作業を繰り返して表面座標の情報を得る,ということを画素分繰り返して画像を得ています).では学習したNeRFから3Dモデルを得ることはできるのでしょうか? 3Dデータとして出力できればゲームやVR,3Dプリンティングといった色々なことに使え