Disentangling Object Motion and Occlusion for Unsupervised Multi-frame Monocular Depth 従来の自己監視単眼深度予測方法は、静的環境の仮定に基づいており、オブジェクトの動きによって引き起こされる不一致と閉塞の問題により、動的シーンの精度が低下します。既存の動的オブジェクトに焦点を当てた方法は、トレーニング損失レベルでの不一致の問題を部分的にしか解決しませんでした。したがって、本論文では、予測損失レベルと監視損失レベルの両方でこれらの問題を解決するための新しいマルチフレーム単眼深度予測方法を提案します。 DynamicDepthと呼ばれる私たちの方法は、自己監視型のサイクル一貫性のある学習スキームを介してトレーニングされた新しいフレームワークです。不一致の問題を解決するためにオブジェクトの動きを解きほぐすため