この記事について 機械学習で使われている optimizer について紹介するよ。 Introduction まずは、みなさんも大好きな線形回帰を例に話をはじめましょう。普段は、何気なく機械学習のパッケージにデータを突っ込んで終わりということがほとんどではないでしょうか。パッケージの中で optimizer が蠢いていることも、ほぼ意識することはないかもしれません。しかし、彼らはそこにいるのです。 少し理論 さて、やや唐突ではありますが、目的変数を $y$、 説明変数を $X$、回帰係数を $w$ としましょう。線形回帰では、目的変数を説明変数の線形結合で近似したいと考えます。すなわち、 がなるべく"いい感じに"成り立つように係数 $w$ を決定することを目指します。ここで、$y$ と $w$ は縦ベクトル、$X$ は行列として扱っています。データのサンプル数を $N$ 、説明変数の数を
![OPTIMIZER 入門 ~線形回帰からAdamからEveまで - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/2c17dcdc7638ab5b073f9ad1d58d43c42536a034/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9T1BUSU1JWkVSJTIwJUU1JTg1JUE1JUU5JTk2JTgwJTIwfiVFNyVCNyU5QSVFNSVCRCVBMiVFNSU5QiU5RSVFNSVCOCVCMCVFMyU4MSU4QiVFMyU4MiU4OUFkYW0lRTMlODElOEIlRTMlODIlODlFdmUlRTMlODElQkUlRTMlODElQTcmdHh0LWFsaWduPWxlZnQlMkN0b3AmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZzPWM5MTMwNTc0ZjI5ZjJhODkzYWRjOGFlZDk5M2VmNmYx%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBkZWFpa2VpJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9MzYmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz02MjU1NDYwOWE3YjE4YjQ5NjY5ZmMzOWE3NjlmMzJjZA%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3D1873a5aeb79ff7daa2fb04c74b290e8f)