はじめに 前回の記事では,DMLCが提供するXGBoostパッケージを用いて,Boosted treesの実装をRを用いて行いました. 本記事ではXGBoostの主な特徴と,その理論であるGradient Tree Boostingについて簡単に纏めました. XGBoostを導入する場合や,パラメータチューニングの際の参考になればと思います. Boosted treesは,Gradient BoostingとRandom Forestのアルゴリズムを組み合わせたアンサンブル学習となります. Boosted treesの予測精度はRandom Forestsよりも向上しますが,チューニングが必要なパラメータが複数存在します. 一方,Random Forestsはチューニングが不要なのですが,学習データに依存しやすく,過学習となりやすいです. What is better: gradient-
Gradient Boosting や XGBoostについて調べたことをまとめました. Gradient Descent や Newton法と絡めて説明していきたいと思います. 目次 Boosting Gradient Descent (Steepest Descent) Gradient Boosting Regression Tree Gradient Tree Boosting Learning rate Newton Boosting XGBoost Generalization Error Conclusion Reference Boosting Boostingとは,ランダムより少し良い程度の”弱い”学習アルゴリズムを使って, そのアルゴリズムよりも”強い”学習アルゴリズムをつくることです. イメージとしては,弱い学習アルゴリズムを”boost”してあげる感じでしょうか.
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く