タグ

ブックマーク / rodhos.hatenadiary.jp (1)

  • TensorFlowやってみた Softmax Regressions - Rodhos Soft

    これは以下のチュートリアルをやってみたログである。 http://www.tensorflow.org/tutorials/mnist/beginners/index.html#mnist-for-ml-beginners 分類問題には古典的にはSoftmax Regressionsを使用するのが自然である。 あるクラスは入力値にそれぞれの重みをかけて足し合わせたものだとする。これをevidenceと呼べば evidence_i = w_ij x_j + b_i ここでb_iはバイアスである。ここで同一添字の和を省略した。 これを確率に変化させるためにsoftmax関数を使う。 y_i = softmax(x)_i = e^(x_i)/Σ_je^(x_j) よって y_i = softmax(evidence_i)_i これを単に y = softmax(Wx+b) と書くことにする。 R

    TensorFlowやってみた Softmax Regressions - Rodhos Soft
  • 1