
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
sklearnを活用した特徴量選択を整理した - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
sklearnを活用した特徴量選択を整理した - Qiita
製造業出身のデータサイエンティストがお送りする記事 今回はscikit-learnで使用できる特徴量選択手法を... 製造業出身のデータサイエンティストがお送りする記事 今回はscikit-learnで使用できる特徴量選択手法を使ってみました。 はじめに 回帰モデルや分類モデルを構築する際に、特徴量エンジニアリングは重要な要素です。その際、ドメイン知識を使って特徴量選択することが多いですが、scikit-learnを使用して目星を付ける方法を実施してみましたので整理します。 RFEによる特徴量選択 RFE(Recursive Feature Elimination)は再帰的特徴量削減手法になります。 すべての特徴量から開始してモデルを作成し、そのモデルで最も重要度が低い特徴量を削除します。その後またモデルを作成し、最も重要度が低い特徴量を削除します。この手順を定めた数の特徴量になるまで繰り返す手法です。 pythonのコードは下記の通りです。 # 必要なライブラリーのインポート mport pandas