タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

xgboostに関するturuhashiのブックマーク (2)

  • XGBoost論文を丁寧に解説する(1) - Qiita

    はじめに 勾配ブーストを用いた決定木(GBDT)によるクラス分類や回帰はデータ分析コンペでも非常によく使われています。 その中でも2016年に出されたXGBoostはLightGBMと並びよく使われている手法です。 性能が良いことで有名なXGBoost, LightGBMですが、モデル内部でどのような処理が行われているかよくわかっていなかったので論文を読んでみました。 式変形の省略が多く、またイメージしづらい箇所もあり、読みづらかったのですが 一度イメージできれば割とあっさり理解できます。 その体験を踏まえて、イメージ図を多く取り入れながらXGBoostの論文を(途中まで)丁寧に解説します。 XGBoost: A Scalable Tree Boosting System 論文 この記事で述べること データの入出力 XGBoostの木構造 損失関数とboosting 木構造の学習(spli

    XGBoost論文を丁寧に解説する(1) - Qiita
  • XGBoostで自分で設計した目的関数(objectiveを自分で定義)で回帰を行う - めも

    やること Quantile Regression イメージ scikit-learnのGradientBoostingでの実装 XGBoostの目的関数を変更する 目的関数 結果 他の目的関数 やること xgboostの目的関数を定義済みのものから自分で定義したものに変える。 回帰は常に 正解ラベル=予測の平均値 だったらいいのだけれど、予測を外したらまずいケースも現実問題では存在する。 なので、予測を外したらダメなケースだけは特にペナルティを大きくした目的関数を自分で定義したかった。 今回は練習でQuantile Regressionをxgboostを使って行う。 Quantile Regression Koenker, Roger. Quantile regression. No. 38. Cambridge university press, 2005. イメージ の赤実線以下のサン

    XGBoostで自分で設計した目的関数(objectiveを自分で定義)で回帰を行う - めも
  • 1