ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
![BlackBox モデルの説明性・解釈性技術の実装](https://cdn-ak-scissors.b.st-hatena.com/image/square/01a69f1f6880cc779a3795d5bbb79fc0595d6d5e/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2Fisid-191127090735-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
ディープラーニングは特定分野で非常に高い精度が出せることもあり、その応用範囲はどんどん広がっています。 しかし、そんなディープラーニングにも弱点はあります。その中でも大きい問題点が、「何を根拠に判断しているかよくわからない」ということです。 ディープラーニングは、学習の過程でデータ内の特徴それ自体を学習するのが得意という特性があります。これにより「人が特徴を抽出する必要がない」と言われたりもしますが、逆に言えばどんな特徴を抽出するかはネットワーク任せということです。抽出された特徴はその名の通りディープなネットワークの中の重みに潜在しており、そこから学習された「何か」を人間が理解可能な形で取り出すというのは至難の業です。 例題:このネットワークが何を根拠に猫を猫として判断しているか、ネットワークの重みを可視化した上図から答えよ(制限時間:3分) image from CS231n Visua
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本1. Copyright © 2017 TIS Inc. All rights reserved. 深層学習の判断根拠を理解するための 研究とその意義 戦略技術センター 久保隆宏 2. Copyright © 2017 TIS Inc. All rights reserved. 2 深層学習における、解釈性の問題 説明力が問われるシーン 判断に影響を受ける関係者がいる場合 法的責任が伴う場合 継続的なメンテナンスが必要な場合 判断根拠を理解するための手法 ネットワークの出力を最大化する入力の作成 入力に対する感度を分析する 出力から入力までの経路を逆にたどる 様々な入力から出力の傾向を推定する 入力に対する着目点をモデルに組み込む 説明力に対する評価 説明の一貫性
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く