Google DeepMind、マシンが周囲を認識するために、2D画像から3Dシーンを推定する教師なし視覚認識ニューラルネットワーク「GQN」を発表 2018-06-15 Google DeepMindは、マシンが周囲を認識するために、2D画像からシーンの3Dモデルを生成する視覚認識フレームワーク「Generative Query Network(GQN)」システムを発表しました。 GQNは、事実上何も知らないエージェントが、シーンの複数の静的2D画像を見て、それの合理的に正確な3Dモデルを再構築するシステムです。 シーンの内容を人間がラベル付けすることなく、あらゆる角度からシーンを推定しレンダリングします。マシンが、その部屋なりを動きながら収集した2D画像を基に、関係性や規則性などを学び、見えない部分も含めオブジェクトの位置や色などを推定し再現します。 以下のような単一の視点から正確な3
![Google DeepMind、マシンが周囲を認識するために、2D画像から3Dシーンを推定する教師なし視覚認識ニューラルネットワーク「GQN」を発表](https://cdn-ak-scissors.b.st-hatena.com/image/square/84a654276f0e8fabb097af1f9a65c6247ebdb97c/height=288;version=1;width=512/https%3A%2F%2Fshiropen.com%2Fwp-content%2Fuploads%2F2018%2F06%2Fgooglemind-357x186.png)