機械学習を活用すれば、膨大なデータをもとにして、さまざまな事柄について予測値を導き出すことができます。しかし、実際にその予測値を役立てるためには、なぜそうした予測結果になったのかを理解することが重要です。予測値を解釈するための手法として、協力ゲーム理論を応用したSHAP(SHapley Additive exPlanations)という手法があります。TVISION INSIGHTS株式会社でデータサイエンティストマネージャーを務める森下光之助氏が、SHAPの基本的な考え方と、そのベースとなる協力ゲーム理論について解説します。 SHAP(SHapley Additive exPlanations)で予測結果の貢献度を分解する 森下光之助 氏(以下、森下):まずは簡単に自己紹介をさせてください。僕はTVISION INSIGHTS株式会社でデータサイエンティストのマネージャーをやっていて、僕
![機械学習モデルの予測値を解釈する「SHAP」と協力ゲーム理論の考え方](https://cdn-ak-scissors.b.st-hatena.com/image/square/a568200d1ed19d0dc32c3d7ec0452ed9d99e148c/height=288;version=1;width=512/https%3A%2F%2Fimg.logmi.jp%2Farticle_images%2FMLTiLXerpYiaGK7QgdpvFp.png)