左から:VGG16 による分類予測の根拠可視化、MLPによる iris データセットのFeature importance(もどき)の計算、Graph Convolution モデルによる水溶度の寄与可視化。 概要 「Deep Neural Networkはブラックボックス、中で何が行われて出力が出たのか知ることはできない」と思っていませんか? 実際、多くの層からなるNNは複雑で数学的解析は難しいですが、全くわからないというわけではなく、上記のように予測根拠を可視化することによってモデルのデバッグや新たな知見の導出を試みようという研究があります。 今回、このSaliency mapの計算手法のいくつかを実装し、その可視化機能がChainer Chemistry でマージされましたので紹介します。 本記事少し長くなってしまいましたが、最後まで読んでいただければこのような可視化ができるようにな
![NNの予測根拠可視化をライブラリ化する - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/2acf5eae81cc581f8689c5706701c9c81904fc0a/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Fadvent-calendar-ogp-background-7940cd1c8db80a7ec40711d90f43539e.jpg%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9Tk4lRTMlODElQUUlRTQlQkElODglRTYlQjglQUMlRTYlQTAlQjklRTYlOEIlQTAlRTUlOEYlQUYlRTglQTYlOTYlRTUlOEMlOTYlRTMlODIlOTIlRTMlODMlQTklRTMlODIlQTQlRTMlODMlOTYlRTMlODMlQTklRTMlODMlQUElRTUlOEMlOTYlRTMlODElOTklRTMlODIlOEImdHh0LWFsaWduPWxlZnQlMkN0b3AmdHh0LWNvbG9yPSUyMzNBM0MzQyZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZzPWUxYzExMzFhM2ZlZjE4MGVkMWI0MmU0OGEzY2JhOTdi%26mark-x%3D120%26mark-y%3D96%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9OTcyJnR4dD0lNDBjb3JvY2hhbm4mdHh0LWNvbG9yPSUyMzNBM0MzQyZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTBlNGU1ODQ0NTZkOWFlMDYxMDA5ZjdlYTI5NGIxOWI2%26blend-x%3D120%26blend-y%3D500%26blend-mode%3Dnormal%26s%3D0a4f874e6cbdb4e5f4dba799d88c30f5)