タグ

解釈性とdeep learningに関するni66lingのブックマーク (2)

  • ディープラーニングの判断根拠を理解する手法 - Qiita

    ディープラーニングは特定分野で非常に高い精度が出せることもあり、その応用範囲はどんどん広がっています。 しかし、そんなディープラーニングにも弱点はあります。その中でも大きい問題点が、「何を根拠に判断しているかよくわからない」ということです。 ディープラーニングは、学習の過程でデータ内の特徴それ自体を学習するのが得意という特性があります。これにより「人が特徴を抽出する必要がない」と言われたりもしますが、逆に言えばどんな特徴を抽出するかはネットワーク任せということです。抽出された特徴はその名の通りディープなネットワークの中の重みに潜在しており、そこから学習された「何か」を人間が理解可能な形で取り出すというのは至難の業です。 例題:このネットワークが何を根拠にとして判断しているか、ネットワークの重みを可視化した上図から答えよ(制限時間:3分) image from CS231n Visua

    ディープラーニングの判断根拠を理解する手法 - Qiita
  • 深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本

    2. Copyright © 2017 TIS Inc. All rights reserved. 2  深層学習における、解釈性の問題  説明力が問われるシーン  判断に影響を受ける関係者がいる場合  法的責任が伴う場合  継続的なメンテナンスが必要な場合  判断根拠を理解するための手法  ネットワークの出力を最大化する入力の作成  入力に対する感度を分析する  出力から入力までの経路を逆にたどる  様々な入力から出力の傾向を推定する  入力に対する着目点をモデルに組み込む  説明力に対する評価  説明の一貫性に対する評価  説明の正当性に対する評価  説明力の利用事例  おわりに 目次 3. Copyright © 2017 TIS Inc. All rights reserved. 3 久保隆宏 TIS株式会社 戦略技術センター  化学系メーカーの業

    深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
  • 1