タグ

Deep LearningとCNNに関するpandazxのブックマーク (3)

  • 畳み込みニューラルネットを高速化するためのいろいろ - SmartNews Engineering Blog

    $$ \begin{bmatrix} d_0 d_1 d_2 \\ d_1 d_2 d_3 \end{bmatrix} \begin{bmatrix} g_0 \\ g_1 \\ g_2 \end{bmatrix} = \begin{bmatrix} m_1 + m_2 + m_3 \\ m_2 - m_3 - m_4\\ \end{bmatrix} $$ ただし、$m_1 = (d_0 - d_2) g_0, m_2 = (d_1 + d_2) \frac{g_0 + g_1 + g_2}{2}, m_3 = (d_2 - d_1) \frac{g_0 - g_1 + g_2}{2}, m_4 = (d_1 - d_3) g_2$です。 なにがなんだかわからない、という声がここまで聞こえて来るような気すらしますが、それはともかく、$m_1 + m_2 + m_3$に上記の定義を入れて計算

    畳み込みニューラルネットを高速化するためのいろいろ - SmartNews Engineering Blog
  • Keras: CNN中間層出力の可視化 - MOXBOX / HazMat

    概要 Keras 2.2 を使用して CNN の中間層がどのような出力を行っているかを可視化する。ここでは学習済みモデルに VGG16 + ImageNet を使用しカワセミの写真のどの部分を特徴としてとらえているかを示すためのヒートマップを作成する (このヒートマップで示される特徴に対する反応の強さをこのページでは暫定的に特徴強度と呼ぶ)。 CNN で使用される一般的な畳み込み層の出力テンソルは (batch, width, height, intensity) の形状を持っている。例えばカラー画像における RGB カラーチャネルは、それぞれ赤緑青の特徴強度を表していることと等価である。画像データの縦横サイズは畳み込みが進むにつれて小さくなり特徴強度のバリエーションが増えてゆく。この特徴強度を xy 座標上のヒートマップで表したものは CNN が画像のどの部分を特徴としてとらえているかを

    Keras: CNN中間層出力の可視化 - MOXBOX / HazMat
  • PowerPoint プレゼンテーション

    Nakayama Lab. Machine Perception Group The University of Tokyo 東京大学 大学院情報理工学系研究科 創造情報学専攻 中山 英樹 Nakayama Lab. Machine Perception Group The University of Tokyo  1.画像認識分野におけるdeep learningの歴史と発展  2.畳み込みニューラルネット (CNN)を用いた転移学習  3.実践方法 2 Nakayama Lab. Machine Perception Group The University of Tokyo  1.画像認識分野におけるdeep learningの歴史と発展  2.畳み込みニューラルネット (CNN)を用いた転移学習  3.実践方法 3 Nakayama Lab. Machine Perce

  • 1