タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

変数重要度に関するmahler-5のブックマーク (4)

  • 機械学習の結果を解釈する方法まとめてみた | マサムネの部屋

    機械学習の困りごとの一つとして、結果の解釈が難しい、という事があります。 特徴量が結果に与える効果を評価する術が存在するので、結果の解釈が出来たりすることが多いです。 記事では、以下の方法を紹介します。モデル毎に使える時と使えない時があるので注意1しましょう。 t値ジニ係数permutation importanceheat map 記事で使っているソースコードはgithub に置いてあります。 https://github.com/msamunetogetoge t値 始めはt値を解説します。実務では回帰だけで事足りることが多いと思いますが、特徴量の効果を測る方法の一つに、t値があります。2 t値は、大きければ大きい程回帰係数に意味がある と思うと良いです。 定義を確認し、python 上で表示してみましょう。 t値の定義 簡単の為に、単回帰分析の場合で考えましょう。 $$\begin{

  • 決定木の特徴量重要度の計算方法 – TauStation

    概要 scikit-learnのDecisionTreeClassificationモデルにfeature_importances_というパラメーターがある。このパラメーターは1次元配列で、特徴量番号に対する重要度が実数で格納されている。 このfeature_importances_について、公式ドキュメントでは以下のように書かれている。 The importance of a feature is computed as the (normalized) total reduction of the criterion brought by that feature. It is also known as the Gini importance. ~特徴量の重要度は、対象とする特徴量から得られた基準値の減少分の(正規化された)合計値。ジニ重要度としても知られている。~ と書かれているが

  • Feature Importanceを知る – MIIDAS Science Blog

    こんにちは。kzです。 世の中ではやはり解釈性が重要らしいです。 shap値で解釈する前にpermutation-importanceを知る 前回、SHAP含めてモデル解釈の指標についていくつか触れました。やはり一度では僕は残念ながら理解できないので復習も含めて今回この記事を書きます。 前回の復習 上記のリンク先が前回の記事になります。 Permutation ImportancePartial DependenceLIMESHAP 雑におさらいするとPIは対象の変数をシャッフルして精度の変化からその変数の影響力を見る手法。PDは対象の変数以外を周辺化で消すことによってその変数のみの影響力を見る手法。LIMEは対象の入力データ周辺でブラックボックスモデルを線形近似しその重みでそれぞれの変数の寄与具合を見る手法。SHAPはLIMEのモデルに複数の制約(Consistencyなど)を与えてでき

  • Random Forestで計算できる特徴量の重要度 - なにメモ

    (pixabay.comより) 1.背景とか Random Forest[1]とは、ランダムさがもつ利点を活用し、大量に作った決定木を効率よく学習させるという機械学習手法の一種です。SVMなどの既存の手法に比べて、特徴量の重要度が学習とともに計算できること、学習が早いこと、過学習が起きにくいこと(追記注釈1)などの利点が挙げられます。Kinectの姿勢推定に使われているらしいです。 最近、Random Forestをカジュアルに使う例が多く(特にうちの研究室)、一部パラメータやら出力やらがわからない人も多いと思います。使い方はTJOさんの資料[2]を読んでもらえれば理解できると思うし、詳細は波部先生の資料[3]をよんでもらえればわかると思います。 それで、いろいろな日語の資料をいくら読んでも、Random Forestがもつ特徴の1つである、特徴量の重要度の詳細に関してはほとんどノータッ

    Random Forestで計算できる特徴量の重要度 - なにメモ
  • 1