畳み込みではない、層間が全結合の順伝播型ニューラルネットワークにおいて、層を深く(ディープに)することには、どんな意味があるのでしょう。 何周遅れの話なんだという感じですが、自分でネットワークを実装してみて腹落ちしたような気がするので、投稿します。 ニューラルネットワークの動機 そもそも、コンピュータプログラムは、入力xを受け取り、出力yを返す関数fとして理解できます。なお、数学的な意味での関数と異なるのは、入出力等の副作用(side effect)を伴うところです。 プログラマは、小さな関数を重ね合わせたり(関数型言語)、手続きを並べたり(手続き型言語)、オブジェクト同士でメッセージのやり取りをしたり(オブジェクト指向言語)して、関数fを実装します。 ところが、何らかの理由で、関数fを直接書き下せないことがあります。一例を挙げれば、囲碁の局面を評価する評価関数。囲碁は、自然言語では「この
![全結合のNNで層を深く(ディープに)することの意味 - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/d913ee24177845cec8fc96b1a75a8c4d8b4f0f96/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-9f5428127621718a910c8b63951390ad.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTkxNiZ0eHQ9JUU1JTg1JUE4JUU3JUI1JTkwJUU1JTkwJTg4JUUzJTgxJUFFTk4lRTMlODElQTclRTUlQjElQTQlRTMlODIlOTIlRTYlQjclQjElRTMlODElOEYlRUYlQkMlODglRTMlODMlODclRTMlODIlQTMlRTMlODMlQkMlRTMlODMlOTclRTMlODElQUIlRUYlQkMlODklRTMlODElOTklRTMlODIlOEIlRTMlODElOTMlRTMlODElQTglRTMlODElQUUlRTYlODQlOEYlRTUlOTElQjMmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZ0eHQtY2xpcD1lbGxpcHNpcyZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPWZlNmIyMjBiZDVmZWJiZWZjYWE2NDllYzk5YTMyZjk2%26mark-x%3D142%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTYxNiZ0eHQ9JTQwdGFudWsxNjQ3JnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9MzYmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz1iNmM3ODMwZjFhODM4NjJlZjhjODU0MjllYzU0YWJkZQ%26blend-x%3D142%26blend-y%3D491%26blend-mode%3Dnormal%26s%3D3d53908da5d28bb384a02b3cf2a4e8a8)