タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

sgdとmachine_learningに関するmroriiのブックマーク (3)

  • Stochastic Learning

    This paper summarizes my lecture at the Machine Learning Summer School 2003, Tübingen. Abstract: This contribution presents an overview of the theoretical and practical aspects of the broad family of learning algorithms based on Stochastic Gradient Descent, including Perceptrons, Adalines, K-Means, LVQ, Multi-Layer Networks, and Graph Transformer Networks. Léon Bottou: Stochastic Learning, Advance

  • 確率的勾配降下法 - 機械学習の「朱鷺の杜Wiki」

    確率的勾配降下法 (stochastic gradient descent method)† 予測の誤差関数が \(E^N=\sum_i^NE_i\) のように,各データ点についての誤差の総和で表されているとする.例えば,2乗誤差なら \[E_i=(y_i-f(\mathbf{x}_i))^2\] とすれば, \[E^N=\sum_i^NE_i=\sum_i^N(y_i-f(\mathbf{x}_i))^2\] のように,各データ点の誤差の総和となっている. 最急降下法では \(N\) 個のデータ全体についての勾配を考えた \[\theta\leftarrow\theta-\nabla E^N\] 確率的勾配降下法では,総和の勾配を計算する代わりに,\(i\)個目データについての勾配を計算してパラメータを更新する手続きを \(i=1,\ldots,N\) について行う. \[\theta\

  • Stochastic gradient descent - Wikipedia

    Stochastic gradient descent (often abbreviated SGD) is an iterative method for optimizing an objective function with suitable smoothness properties (e.g. differentiable or subdifferentiable). It can be regarded as a stochastic approximation of gradient descent optimization, since it replaces the actual gradient (calculated from the entire data set) by an estimate thereof (calculated from a randoml

    Stochastic gradient descent - Wikipedia
  • 1