エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
「特徴量重要度」について少しだけ真剣に考えてみる - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「特徴量重要度」について少しだけ真剣に考えてみる - Qiita
はじめに 機械学習モデルを解釈する際には「特徴量重要度」がキーワードになってきます。「特徴量重要度... はじめに 機械学習モデルを解釈する際には「特徴量重要度」がキーワードになってきます。「特徴量重要度」には様々な指標があり、目的が違います。 ①feature importance、②permutation importance、③SHAP の3つについて説明していきます。 結論から言うと 3つの特徴量重要度を調べて、個人的に感じた結論を以下に書きます。 ①feature importance:予測モデルを組む際に 「モデル」が重要視する因子が分かる 。例えば決定木を考えた際にどの因子がノードの分割に寄与するのかを評価するイメージ。 ②permutation importance:各特徴量が予測にどう寄与するかが分かる。モデルの「予測精度」に影響する因子が分かる。 ③SHAP: 「予測結果」に対する各特徴量の寄与が分かる 。それぞれのデータの予測にインパクトを与える因子が分かる。 ①feat