2020年1月16日に行われたData Gateway Talk vol.5での発表資料です。 https://data-gateway-talk.connpass.com/event/155457/ この発表をログミーさんに記事化して頂きました。 こちらには資料の口頭での補足も入っています。 https://logmi.jp/tech/articles/322738
![SHapley Additive exPlanationsで機械学習モデルを解釈する / dgtalk5](https://cdn-ak-scissors.b.st-hatena.com/image/square/53a15f7801fbff17ff2effc2549615d369d4bd5c/height=288;version=1;width=512/https%3A%2F%2Ffiles.speakerdeck.com%2Fpresentations%2F351004f974d844e0820c62456a3d6839%2Fslide_0.jpg%3F19660705)
こんにちは。Merpay Advent Calendar 2019 の24日目は、メルペイ Machine Learning チームの @yuhi が機械学習における解釈性についてお送りします。 目次 機械学習における解釈性とは なぜ解釈性が必要なのか 1. サービスを提供する事業者としての説明責任 2. 推論結果に対する社内外の関係者の理解 3. モデルのデバッグ、精度改善 どのようなアプローチがあるのか SHAPについて サマリ 基本的なアイディア 問題設定 説明可能モデルに対して満たしてほしい性質 説明可能モデルを求める SHAPの実装について 最後に References 機械学習における解釈性とは 深層学習をはじめとする機械学習分野の発展に伴って、これまでにないユニークなサービスが開発され、また多くの業界において業務が効率化、高度化されつつあります。メルペイでも機械学習を用いて、
ちょっと前に、しょうもないことを某所で放言したら思いの外拡散されてしまいました。 機械学習の説明可能性(解釈性)、大半のケースで求められているのは厳密な分類・回帰根拠ではなく受け手の「納得感」なので、特に実ビジネス上は説明可能性に長けたモデルを開発するより、納得できないお客さんを巧みに関係性構築した上で口八丁で完璧に説得できる凄腕営業ピープルを雇う方が重要— TJO (@TJO_datasci) 2019年11月23日 これ自体は与太話なので実際どうでも良い*1のですが、最近色々な研究や技術開発の進展はたまた実務家による考察などを見ていて、「機械学習の説明可能性(解釈性)というのは思った以上に複雑な迷宮だ」と感じることがままあったのでした。 ということで、今回の記事では僕のサーベイの範囲でザッと見て目についた資料などを超絶大雑把にリストアップした上で、主に実務における説明可能性とは何かとい
自然言語処理や画像処理の分野において、注意機構はニューラルネットワークの内部を可視化することができる重要なアーキテクチャであるとされています。今回で紹介する論文は「注意機構は本当にニューラルネットワークの働きを説明しているのか」という疑問に正面から向き合ったというものです。 論文:Attention is not Explanation Attention is All You Needという機械翻訳に関する有名な論文は、自然言語処理を専門としていなくとも耳にしたことがあるかもしれません。タイトル通り、注意(attention)を用いることで精度の向上や処理の可視化ができるようになると言った主張が含まれる論文です。 自然言語処理や画像処理の分野において、注意機構はニューラルネットワークの内部を可視化することができる重要なアーキテクチャであるとされています。今回取り上げる論文は、特に注意機構
ディープラーニング(深層学習)は人間にとってブラックボックスであり、AI(人工知能)による判断の根拠が不明だ―――。そんな懸念を解消する技術を米グーグル(Google)が2019年11月21日にリリースした。クラウドのサービスとして「Explainable AI(説明可能AI)」の提供を開始した。 Explainable AIは深層学習によって開発したAIにおけるニューラルネットワークの稼働状況を分析することで、AIによる判断の根拠を人間に分かる形で提示する技術である。例えば画像認識AIであれば、被写体を分類する際に根拠としたピクセルをハイライト表示する。 構造化データに基づいて判断するタイプのAIに関しては、ニューラルネットワークに入力したデータのどの部分(特徴)がAIの判断に寄与したのかを数値で示す。グーグルのクラウドAI事業を統括するバイス・プレジデント(VP)のラジェン・シェス氏は
ほとんどの人が何らかのアルゴリズムに日々接している一方、人工知能(AI)がどのように機能するのか、実際に理解していると自信を持って言える人はそれほど多くない。しかし、Googleが英国で現地時間11月20日から開催している「Google Cloud Next '19 UK」で発表した新たなツールは、一般の人々が機械学習(ML)の難解さをひもとくうえで力となるはずだ。 「Explainable AI」(説明可能なAI)と呼ばれるこのツールは、MLモデルが思考を重ねる手法と、結論に至った理由をユーザーに説明するという、その名が示す通りの機能を有している。 Explainable AIは、そういった機能を実現するために、データセット内の各特徴がアルゴリズムの導き出した結果にどの程度の影響を与えたのかを定量化する。つまり、それぞれのデータ係数には、MLモデルにどの程度影響を与えたのかを示すスコアが
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く