タグ

2019年9月24日のブックマーク (6件)

  • シャプレー値という貢献度の測り方 - 3日で学ぶ交渉術!ゲーム理論入門

    まずは、何もない状態からAが事業を始める。そこで5億円の利益が出る。何もない状態にAが加わることで、0円→5億円に利益が増えた。ここでのAの貢献分は5億円だ。 次に、BがやってきてAと合併した。今度は55億円の利益が出る。Aだけの状態にBが加わることで、55-5=50億円も利益が増えている。ここでのBの貢献分は50億円だ。 最後にCが合併した。すると、120億円の利益が出る。55億円だった利益が、Cが加わることで120億円まで増える。ここでのCの貢献分は120-55=65億円だ。 このように、A→B→Cという順番で合併した時は、それぞれの貢献度はA:5億円、B:50億円、C:65億円となるわけだ。「私のおかげでこれだけ利益が増えたよね」という数字だ。 しかし、これは合併する順番で数字が変わってしまう。そこで、すべての順番で貢献度を求める。そして、その平均を取ることで、同時に合併した時の貢献

    シャプレー値という貢献度の測り方 - 3日で学ぶ交渉術!ゲーム理論入門
  • SHAPでモデルの予測結果を説明する | CCT-recruit

    こんにちは、エンジニアのtetsuです。 どうしてモデルがこのような予測をしたのか、ということを説明することの重要性は近年ますます高まっているように思えます。これには予測結果の解釈をおこなうことで様々な知見を得たいという要求や、ブラックボックスのモデルは信用しづらいというのが理由に挙げられます。 線形回帰や決定木といったモデルは予測結果に対する解釈をすることができますが、単純で表現力が乏しいです。一方でディープラーニングや決定木のアンサンブル学習などの複雑なモデルは表現力が高いですが、人間が解釈しようとするのは困難です。 このような問題を解決するために近年は様々な手法が提案されています。今回はそれらの中の1つであるSHAPSHapley Additive exPlanations)について簡単にご紹介します。SHAPは日語だと「シャプ」のような発音のようです。 なお、SHAPについては

  • 機械学習モデルの局所的な解釈(LIMEとSHAP) - どこから見てもメンダコ

    有名な機械学習モデル解釈ツールであるLIMEとSHAPを試します。 はじめに 最近、機械学習モデルの解釈可能性についての非常に良い書籍を読みました。 ※下記リンク先で全文公開されていますのでぜひ読んでみてください。 とくに気に入ったのが、"2.1 Importance of Interpretability(解釈可能性の重要性)"において、機械学習に解釈性が求められるのは「AIの社会的責任が高まっているから」とか言わずに、「予測できない事象に対する人間の知的好奇心は抑えられるものではないから」と述べている点です。 christophm.github.io 医療のようなリスクの大きい分野ではAIに解釈可能性を求めるのは当然の流れです。しかし、たとえ低リスクな分野における機械学習の導入であっても、クライアントの現場担当者は説明可能性を求めるものです。なぜならば知的好奇心は人間の質的欲求であり

    機械学習モデルの局所的な解釈(LIMEとSHAP) - どこから見てもメンダコ
  • 続・機械学習モデルを解釈する方法 SHAP value - 子供の落書き帳 Renaissance

    前回の話 kaggleの中に、Machine Learning for Insights Challengeという4日間の講座がある。 後半2日間はSHAP valueが題材だったので、SHAP valueについてまとめる。 Machine Learning for Insights Challengeの内容、前半2日間の内容については前回のエントリを参照。 linus-mk.hatenablog.com ちなみに今気づいたのだが、この4日間講座はkaggle Learnの講座一覧の中に加わっている。以下のサイトから各日の講義や演習問題に行ける。 Machine Learning Explainability | Kaggle ……って、タイトルに『Explainability(説明可能性)』って書いてあるじゃん! やっぱり解釈可能性の話じゃん! 最初の講座のときはExplainabili

    続・機械学習モデルを解釈する方法 SHAP value - 子供の落書き帳 Renaissance
  • Deep Learningにおける知識の蒸留 | Code Craft House

    ここ数年のDeep Learningの発展は目覚ましく、急速に実用化が進んでいます。タスクによっては人間に匹敵する精度に達しているものもあり、システムの一部品としてデプロイする場面も増えてくると思います。そこで問題になるのが計算機資源の制約です。学習時には大量の学習データを用意し、GPUなどの計算資源で数時間や数日かかるような学習をしますが、推論時には限られたメモリや計算資源のもとで動作させる必要があります。リアルタイムに大量の入力データを捌く必要があったり、スマートフォンやエッジデバイスなどで動作させる場合には、この制約はさらに強くなります。 深くて大きいモデルの方が精度が出るが、実用を考えると軽量なモデルにする必要がある。こういった場面で最近よく使われる手法として、 知識の蒸留 (Knowledge Distillation) と呼ばれる方法があります。これは、(典型的には)大きくて複

  • 蒸留 第1回 | DeepX AI Blog

    こんにちは、エンジニアの中村です。 今回から数回にわたって、ディープラーニング技術の実用上の重要な課題を解決する蒸留という手法について紹介したいと思います。 ディープラーニングは非常に魅力的なモデル学習技術ですが、実際に使用する際には計算リソースがボトルネックとなり、利用可能なシーンが限定されてしまうことがあります。せっかくの魅力的な技術も、そうなってしまうと宝の持ち腐れです。蒸留は、精度を損なわずに計算負荷の小さいモデルを訓練することを可能にし、ディープラーニングが実際に利用できるシーンを拡大します。 また、蒸留はこうした計算リソースに起因する ディープラーニングの実用上の課題を解決するだけでなく、モデルの精度向上、訓練の効率化、敵対的攻撃(Adversarial Attack)に対する防御など、その他のさまざまな用途に使用可能な応用領域の広い手法でもあります。 今回の記事では、モデル圧

    蒸留 第1回 | DeepX AI Blog