エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
特徴量の選択について勉強したことをまとめてみた - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
特徴量の選択について勉強したことをまとめてみた - Qiita
分散(variance)が小さい特徴量の削除 分散がかなり小さい場合、その特徴量は一定に近いため、どのモデ... 分散(variance)が小さい特徴量の削除 分散がかなり小さい場合、その特徴量は一定に近いため、どのモデルに対しても特徴量として加える価値がない(まあ、当たり前)。scikit-learnに実装されているVarianceThresholdで実現できる。 公式チュートリアル import pandas as pd from sklearn.feature_selection import VarianceThreshold # データフレームの作成 data = pd.DataFrame([[0, 0, 1], [0, 1, 0], [1, 0, 0], [0, 1, 1], [0, 1, 0], [0, 1, 1]], columns=['col_0', 'col_1', 'col_2']) sel = VarianceThreshold(threshold=(0.8 * (1 - 0.