ブックマーク / marugari2.hatenablog.jp (2)

  • 勾配ブースティング落穂拾い - 木の構築について - お勉強メモ

    このシリーズについて XGBoost芸人を自称してちょこちょこ活動をしてきたのですが、最近になって自分の理解の甘さを痛感するようになりました。 気になった箇所を散発的に復習しているのですが、その成果を備忘録として残しておこうと思います。 今のところ体系的にまとめるつもりはないので、これを読んでも勾配ブースティングの全体像はつかめませんので悪しからず。 今回のテーマ以外にはマルチクラス分類の際の挙動等に関心を持っています。 木の構築について 勾配ブースティングでは 回目のイテレーションで誤差 の勾配を上手く表現した木を構築します。 この部分の処理についてscikit-learnとXGBoostでの違いを確認します。 scikit-learn カステラに準拠した処理になっています。 勾配の計算は となり、これを各サンプルのラベル扱いにして DecisionTreeRegressor に投げま

    elu_18
    elu_18 2017/03/19
    勾配ブースティングの復習中 #はてなブログ 勾配ブースティング落穂拾い - 木の構築について - お勉強メモ https://t.co/tIb4V6bcO0 https://t.co/DdjdfYLANV
  • XGBoostにDart boosterを追加しました - お勉強メモ

    はじめに XGBoostにBoosterを追加しました。 以下のようなIssueを見つけ、興味があったので実装してみたものです。 github.com 今のところ、Dart boosterの仕様について私以外の誰も把握していないはずなので、皆さんに使って頂きたく解説記事を書きます。*1 モチベーション 論文の Boosted Treesでは誤差を潰すために回帰木を大量に作ります。 木の数が多くなったときに残っている誤差は小さいですが、以降に構築される回帰木はその些末な誤差にフィッティングされることになります。 これは効率悪いように思われ、イテレーションの終盤においても一定の影響力を持った回帰木を作りたいということで、NN系でよく用いられる(ものとは趣きが異なるように私には思える)DropoutをBoosted Treesに転用しています。 自分の XGBoostにはいつもお世話になっている

    elu_18
    elu_18 2016/06/11
    はてなブログに投稿しました #はてなブログ XGBoostにDart boosterを追加しました - お勉強メモ https://t.co/zpeTsmlUMN https://t.co/DjON4pFAFo
  • 1