本日の輪読会で僕が担当した論文のメモランダムということで、置いときます。 概要 Gradient Boosted Feature Selection (Xu, Huang, Weinberger and Zheng, KDD 2014) タイトルが示すように特徴量選択をやりたいというのが第一のモチベーションで、これをgradient boosted machineでやろうというお話。ちなみに昨今のKaggleやKDD cupではxgboostが大流行しているわけだが、元はと言えばこれは要はgradient boosted treeである。なので多分これはxgboostの枠組みでもやれるのではないかと勝手に期待してゐる。 1 INTRODUCTION / 2 RELATED WORK 特徴選択が機械学習にとって重要だというのは今更言わなくてもみんな分かっているであろうお話。最も広く用いられて
!["Gradient Boosted Feature Selection" (Xu et al., KDD 2014) メモランダム - 渋谷駅前で働くデータサイエンティストのブログ](https://cdn-ak-scissors.b.st-hatena.com/image/square/c5d49b235d716787b0653101ae4847dd0ab12460/height=288;version=1;width=512/http%3A%2F%2Fcdn-ak.f.st-hatena.com%2Fimages%2Ffotolife%2FT%2FTJO%2F20151211%2F20151211165049.png)