前説 tjo.hatenablog.com 今話題のAutoMLは,有名な"データサイエンティスト"よりも優秀なようです。 しかし,この比較にはmamas16k氏に盛大に突っ込まれてるように roundsを!!!チューニングしない!!!— まます (@mamas16k) 2019年5月23日 という問題があります*1。これでは,天下のGoogle様が開発されたAutoMLが役不足ではないでしょうか。 チューニングをミスっているXgboost相手でデモンストレーションするのではなく,どうせならXgboost・LightGBMに続く最新の第3世代*2GBDT系のMLライブラリ Catboost を相手にやりましょう! スコア比較(低い方が良い) AutoML:0.8634979 TJO氏のブログからの引用です。 rmse(pred$shares, test$shares) [1] 0.8634