エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Grad-CAM | 畳み込みニューラルネットワークが着目している部位を可視化する方法
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Grad-CAM | 畳み込みニューラルネットワークが着目している部位を可視化する方法
2020.11.14 畳み込みニューラルネットワークは物体認識(物体分類)の分野で大きな成功を納めているもの... 2020.11.14 畳み込みニューラルネットワークは物体認識(物体分類)の分野で大きな成功を納めているものの、各層のパラメーター同士の繋がりが複雑で、解釈性に欠けている。畳み込みニューラルネットワークが、写真のどこを見て、何をもって物体認識を行っているのを解明することで、畳み込みニューラルネットワークのさらなる改良に繋がるだけでなく、ユーザーが安心して使えるものになる。畳み込みニューラルネットワークの各層を可視化して解釈できるようにする研究が多く行われている。そのなかで、比較的による知られているのが Grad-CAM である。Grad-CAM を理解するには、global average pooling (GAP) および class activation map (CAM) についても理解する必要がある。 global average pooling (GAP) 一般的な畳み込みニュー