はじめに 今回は、XGBoostなどの機械学習において根幹を成している理論、Gradient Tree Boostingについて理解してみる。 XGBoostはKaggleなどのコンペで愛用されている手法だが、その理論を知らずに頼るのはなんか気持ち悪いし、サイエンスではない。また、理論を知ってこそ、それを活用することができると信じているので、一度ここでまとめて見たい。急がば回れである。 ただし、あくまでこれは私が理解している限りを記述したメモ書きであることに注意していただきたい。 なお、以下の内容は、XGBoostの論文のSection2を参考にしている。 Gradient Tree Boostingはアンサンブル学習の一つである。 そもそも機械学習の目標は、汎化能力が高い学習器をデータから構築することであるが、その汎化能力を高めるためには以下2つの方針が考えられる: 単一の学習器の精度を
![Gradient Tree Boostingの理論を読み解く - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/eecdc5bfc15ec2ee1a7051456c46a0791b4ef942/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9R3JhZGllbnQlMjBUcmVlJTIwQm9vc3RpbmclRTMlODElQUUlRTclOTAlODYlRTglQUIlOTYlRTMlODIlOTIlRTglQUElQUQlRTMlODElQkYlRTglQTclQTMlRTMlODElOEYmdHh0LWFsaWduPWxlZnQlMkN0b3AmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZzPWY3MmE2MDIzZTY5OTdjMDVmYTc4Y2U3MTBlMjgyZDIz%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBtYXNhaGlyb19pc29ubyZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTM2JnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnM9MTFlNDZlZGE1N2FmNmZhYTBiOTZmZDc5NDllMzYyNTY%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3Da025c49f734b156b5fd73911cc2ca638)