エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
2D動画から3Dを妄想する【Unsupervised Monocular Depth Learning in Dynamic Scenes】 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
2D動画から3Dを妄想する【Unsupervised Monocular Depth Learning in Dynamic Scenes】 - Qiita
2D動画から3Dを妄想する【Unsupervised Monocular Depth Learning in Dynamic Scenes】PythonDeepLear... 2D動画から3Dを妄想する【Unsupervised Monocular Depth Learning in Dynamic Scenes】PythonDeepLearning論文読みDepthEstimationself-supervised モチベーション 動画(2D画像)を3Dにできれば素敵だと思いませんか? ロボティクスや自動運転に使うもよし。ムフフな動画を3次元で満喫するもよし。 夢とか色々膨らみます。 はじめに。この記事の内容は? 本稿では2020年に提案された自己教師有りの単眼デプス&モーション推定手法であるUnsupervised Monocular Depth Learning in Dynamic Scenes (https://arxiv.org/abs/2010.16404) を紹介します。 平たく言うと、ごく普通の(2D)動画から、正解データを人が準備することなく