NAIST知能コミュニケーション研究室で行われたM1勉強会(2018)の「論文の読み方・書き方」で発表したスライドです 訂正:p.16のCHI勉強会のリンクが間違ってました。正しくはこちらです(http://sigchi.jp/seminar/chi2018/)
![情報抽出入門 〜非構造化データを構造化させる技術〜](https://cdn-ak-scissors.b.st-hatena.com/image/square/14ca4ec855c028c7f46708e0d8a9b276ddf9101a/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2F20130516informationextraction-130516065646-phpapp02-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 こんにちは、AI開発部の伊藤です。 今回のブログは、「深層学習はいったい画像のどこを見て判断しているのか」という素朴な疑問に答えてくれる技術として、昨年提唱された「Grad-CAM」という技術を紹介します。 目次 目次 1. はじめに 2. Grad-CAMの紹介 Grad-CAMの仕組み: 3. 適用例 3-1. 画像キャプション生成(Image Captioning) 3-2. VQA(Visual Question Answering) 3-3. 学習用データのバイアス 4. 実施例(お好み焼きとピザを分類) 4-1. 画像データについて: 4-2. CNNの構築: 4-3. Grad-CAMの実装: 4-4. 実施結果の評価 お好み焼き画像でCNNの判定が当たっているケース: ピザ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く