エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
KaggleチュートリアルTitanicで上位1%に入った話。(0.87081)
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
KaggleチュートリアルTitanicで上位1%に入った話。(0.87081)
1. 前回まで 前回の記事では、機械学習の勉強を初めて4ヶ月で右も左も分からない中で他の人のカーネルを... 1. 前回まで 前回の記事では、機械学習の勉強を初めて4ヶ月で右も左も分からない中で他の人のカーネルを参考にしてデータの前処理をし、RandomForestClassifierのパラメータチューニングを適化してこれ以上あげられない結果になったということでした。詳しくは記事を見ていただけると助かります。(https://lp-tech.net/articles/0QUUd) 2.今回変わったこと 今回大きく変わった点は大きく2つです。 - 1.RandomForestClassifierではなくLightGBMを使った。 - 2.トレーニングデータを増やした。 以上です。具体的に見ていきましょう。 2-1.LightGBMについて Titanicの次に、House Pricesのチュートリアルを始めた時にRandomForestClassifierでは全く歯が立たなかったため、カーネルを見た