タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

エントロピーに関するMarukosuのブックマーク (4)

  • 最尤推定とクロスエントロピー誤差の関係

    $d_n$のk番目の要素 $d_{nk}$ は正解のクラスで1、それ以外で0になります。例えば10個の数字を見分ける10クラス分類で正解が3のときの $d_n$ は、3番目だけ1の[0, 0, 1, 0, 0, 0, 0, 0, 0, 0]です。 想定するタスク ニューラルネットワークを利用して多クラス分類問題を解くこと ネットワークの尤度関数 多クラス分類では出力層への活性化関数としてソフトマックス関数 $$ y_k \equiv z_k^{(L)}=\frac {\exp (u_k^{(L)})}{\sum^K_{j=1}\exp (u_j^{L})} $$ を使います。和が1で範囲が[0, 1]なので確率として解釈できます(後で詳しく触れます)。 今回は入力$ \boldsymbol x $ がクラスkに属するという事象を$ C_k $として、出力をデータが$ \bf x $だったと

    最尤推定とクロスエントロピー誤差の関係
  • 【徹底解説】VAEをはじめからていねいに | Academaid

    初学者の分かりやすさを優先するため,多少正確でない表現が混在することがあります。もし致命的な間違いがあればご指摘いただけると助かります。 はじめに 近年の深層学習ブームにおいて,VAE(変分オートエンコーダ: variational autoencoder)の果たした貢献は非常に大きいです。GAN(敵対的生成ネットワーク: generative adversarial network)やFlowと並んで,生成モデルの三大巨頭として主に教師なし学習や半教師あり学習で応用されています。 多くの書籍やWeb上の資料では「VAEはオートエンコーダの発展手法である」と説明されています。名前にもAE(オートエンコーダ)と入っているので,そう思ってしまうのは一見当然のことのように思えます。しかし,語弊を恐れずに言うと,この説明は深刻な誤解を読者に与えています。Kingmaらの原著論文を読めば,VAEがA

    【徹底解説】VAEをはじめからていねいに | Academaid
    Marukosu
    Marukosu 2024/06/22
    “負のバイナリクロスエントロピーは,尤度関数にベルヌーイ分布を仮定した場合の対数尤度と等価”
  • 機械学習を目的関数から考えてみる - Qiita

    機械学習を目的関数から考えてみる> こんにちは、(株)日立製作所 Lumada Data Science Lab. の中川です。普段は人工知能を制御に適用する研究に従事しています。近年、機械学習が注目される中、機械学習理論および機械学習を使った技術開発環境は急速に進歩すると共に、多くの方がデータサイエンスに関わるようになってきました。すでにデータサイエンスに携わっている方や、これからデータサイエンスに関わってみようと思っている方の中で、理論の大切さをあらためて知りたいあるいは感じたいという方がいらっしゃいましたら、それをできるだけわかりやすく伝えられたら、という思いから基的な内容で記事を書きます。今回は、機械学習において重要な位置を占めます目的関数について考えてみます。 1. はじめに 機械学習を適用するとき、一般にデータを用いてモデルのパラメータ値を決める学習と呼ばれる手続きを行いま

    機械学習を目的関数から考えてみる - Qiita
  • エントロピーを最大にする分布|会沢修也

    確率分布に対して、エントロピーという量が定まります。 $${H(p(x)):=\sum_x -p(x)\log p(x)}$$ これは「情報量」を表す量であり、熱力学(物理)的なエントロピーとも対応する興味深い対象です。この記事では、「情報量」であることの直感的なモチベーションを回収し、どんな確率分布だとエントロピーが大きくなるか、について考察します。 1.エントロピーの意味エントロピーの表式$${H(p(x)):=\sum_x -p(x)\log p(x)}$$は、$${-\log p(x)}$$という値に対する平均値と見ることができます。砕けた言い方をすれば、この量は「ビックリ度合い」を表すものです。 例えばある人が、 ・宝くじで3等を当てた ・宝くじで1等を当てた というようなとき、よりビックリするのは当然1等を当てた場合でしょう。なぜよりビックリするのかと言えば、その発生確率が後者

    エントロピーを最大にする分布|会沢修也
  • 1