タグ

機械学習とSoftmaxに関するshikimihuaweiのブックマーク (2)

  • Softmax関数をベースにした Deep Metric Learning が上手くいく理由 - Qiita

    はじめに Deep Learningを使った距離学習(Metric Learning)では、Contrastive LossやTriplet Lossなどを用いて、画像間の類似性(や非類似性)を直接学習していく方法が広く利用されていますが、学習データの組み合わせや選び方が難しく、学習自体が難航するケースが多い事も知られています。それだけに、これまで様々な改良と工夫が提案されています。 しかし、最近はこのような学習データ選びに難航することなく、一般的なクラス分類タスクの感覚で、Softmax関数をベースに学習できるMetric Learningが注目を浴びています。ArcFaceなどはその代表的手法でこちらで詳しく説明されています。 Softmax関数をベースにしたMetric Learningがうまくいく理由、またさらなる改良の余地はあるのか?これらに関して少し紹介しようと思います。 Ce

    Softmax関数をベースにした Deep Metric Learning が上手くいく理由 - Qiita
  • softmax関数を直感的に理解したい - Qiita

    はじめに 最近ディープラーニングが盛り上がっていますね。その中でもディープラーニングをはじめとする機械学習に出てくるようなを読んでいるとよく出てくるsoftmax関数 があります。最近を読んでいたらこいつが登場し、そろそろちゃんと理解しようと思ったのでその考察をシェアします。 題 結論からいうと、softmax関数を3Dグラフにプロットするとこうなります。 (実際、この結果が見たくてググったがなかなかヒットせず) これは$x_1, x_2$の値がともに$[-5, 5]$である状況で$i=2$に関するsoftmax関数 の挙動をプロットしたものになります。このグラフを観察するとわかることが2点あります。これから個別に見ていきます。 値域(関数の取りうる値)が0から1の間である これがよくsoftmax関数の利点として挙げられていることです。もちろん数学的に示すことも可能です。この点では

    softmax関数を直感的に理解したい - Qiita
  • 1