タグ

ブックマーク / blog.yusugomori.com (2)

  • Denoising Autoencodersにおける確率的勾配降下法(数式の導出) - Yusuke Sugomori's Blog

    Extracting and Composing Robust Features with Denoising Autoencoders [Vincent 2008] では、Deep Learning の一手法である、Denoising Autoencoders(DA)による学習手法が提案されています。 DAでは、入力データの一部をあえて損傷させ、損傷したデータを復元するような訓練を行います。その際、[Vincent 2008]には確率的勾配降下法(stochastic gradient descent, SGD)を用いればよい、との旨が書かれていますが、いざ実装しようとした時、数式が少し複雑でしたので、その導出過程についてまとめたいと思います。 記号等はなるべく文献に合わせてあるので、細かな説明は省いてあります。 また、[Vincent 2008]に従って、入力データがとる値は、0 or

    Denoising Autoencodersにおける確率的勾配降下法(数式の導出) - Yusuke Sugomori's Blog
  • PythonによるDeep Learningの実装(Deep Belief Nets 編) - Yusuke Sugomori's Blog

    前回、前々回とそれぞれロジスティック回帰(Logistic Regression)、制約付きボルツマンマシン(Restricted Boltzmann Machine, RBM)を紹介しました。 手法の説明については、各記事を参照してください。 今回は、これら2つを組み合わせて実装されている Deep Belief Nets (DBN) について紹介します。今回のコードは長いので、記事の最後の方に載せています。 DBNは Greedy Layer-Wise Training of Deep Networks [Bengio 2007] で提案されている手法ですが、こちらがDeep Learningのパイオニアと言っても過言ではありません。 DBNは多層ニューラルネットワークの形をしています。従来の研究では、多層にするほど精度が下がるという問題が指摘されていましたが(多層のため誤差の重みが少

    PythonによるDeep Learningの実装(Deep Belief Nets 編) - Yusuke Sugomori's Blog
    rishida
    rishida 2013/01/26
    PythonによるDeep Learningの実装(Deep Belief Nets 編) - Yusuke Sugomori's Blog 前回、前々回とそれぞれロジスティック回帰(Logistic Regression)、制約付きボルツマンマシン(Restricted Boltzmann Machine, RBM)を紹介しました。 手法の説明につ
  • 1