タグ

shapに関するwerdandiのブックマーク (2)

  • Shapを用いた機械学習モデルの解釈説明 - Qiita

    Shapとは Shap値は予測した値に対して、「それぞれの特徴変数がその予想にどのような影響を与えたか」を算出するものです。これにより、ある特徴変数の値の増減が与える影響を可視化することができます。以下にデフォルトで用意されているボストンの価格予測データセットを用いて、Pythonでの構築コードと可視化したグラフを紹介します。 Shapの概要図 モデルの構築 XGBoostを使用します。 import xgboost import shap X,y = shap.datasets.boston() X_display,y_display = shap.datasets.boston(display=True)

    Shapを用いた機械学習モデルの解釈説明 - Qiita
  • SHAPでモデルの予測結果を説明する | CCT-recruit

    こんにちは、エンジニアのtetsuです。 どうしてモデルがこのような予測をしたのか、ということを説明することの重要性は近年ますます高まっているように思えます。これには予測結果の解釈をおこなうことで様々な知見を得たいという要求や、ブラックボックスのモデルは信用しづらいというのが理由に挙げられます。 線形回帰や決定木といったモデルは予測結果に対する解釈をすることができますが、単純で表現力が乏しいです。一方でディープラーニングや決定木のアンサンブル学習などの複雑なモデルは表現力が高いですが、人間が解釈しようとするのは困難です。 このような問題を解決するために近年は様々な手法が提案されています。今回はそれらの中の1つであるSHAPSHapley Additive exPlanations)について簡単にご紹介します。SHAPは日語だと「シャプ」のような発音のようです。 なお、SHAPについては

  • 1