タグ

最尤推定に関するdelegateのブックマーク (5)

  • 【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid

    記事の内容は新ブログに移行されました。 新しい記事へ こちらのブログにコメントをいただいても ご返信が遅れてしまう場合がございます。 予めご了承ください。 ご質問やフィードバックは 上記サイトへお願い致します。 今回は,確率モデルの潜在変数・パラメータの事後分布を求めるための繰り返し近似法である変分ベイズ法(Variational Bayesian methods)の解説とPythonで実装する方法をお伝えしていこうと思います。 記事はpython実践講座シリーズの内容になります。その他の記事は,こちらの「Python入門講座/実践講座まとめ」をご覧ください。また,記事の実装はPRML「パターン認識と機械学習<第10章>」に基づいています。演習問題は当サイトにて簡単に解答を載せていますので,参考にしていただければと思います。 【目次ページ】PRML演習問題解答を全力で分かりやすく解説

    【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid
  • ベイズ推定と最尤推定の違い

    事後確率: ある事象Dが発生した場合、仮説Hiが正しい確率。条件付き確率で、P(Hi | D)と書きます。

  • 最尤推定と EM アルゴリズム - kenta1984の日記

    最尤推定と EM アルゴリズムのまとめ。 基的には、最尤推定の発展バージョンが EM アルゴリズム。 言い換えれば、EM アルゴリズムは最尤推定が基にあるために、EM アルゴリズムを理解するためには最尤推定を理解することが必須。 最尤推定 最尤という言葉のせいで難しいイメージがあるが、極めて簡単。 表が 0.3 の確率で出るコイン A と表が 0.8 の確率で出るコイン B があるとする。 今、A か B か分からないがどちらかのコインを 3 回続けて投げたら、表、裏、表という順番で出た。 さあ、どっちのコインを投げたでしょう? このときに最尤推定を使えば簡単に分かる。(というか、最尤推定使わなくても感覚で分かるけど…) コイン A を使ったときの確率(=尤度)は、 0.3 × (1−0.3) × 0.3 = 0.063 コイン B を使ったときの確率(=尤度) 0.8 × (1−0.

    最尤推定と EM アルゴリズム - kenta1984の日記
  • 多項分布の最尤推定 - nokunoの日記

    多項分布の最尤推定は確率モデルの基中の基であるが,意外と知らない人も多いので説明しておきたい.ここでいう多項分布は離散変数,たとえば単語や商品,ユーザなどの種類を表す変数の分布である.多項分布は頻度の分布を意味する場合もあるが,今回はNLP業界の慣習にならって観測回数が1回の場合を指す.このような変数はカテゴリカル変数などと呼ばれるらしい. 今,確率でi番目の単語が観測されるものとする.確率なので次の制約が成り立つ.この分布の元で単語が回観測されたとする.パラメータの元でこのような観測がされる確率を尤度関数と呼び,その対数は対数尤度関数と呼ばれる.各観測が上記離散確率の独立同分布に従うとすると,対数尤度関数は以下で表される.最尤推定は,観測値が与えられたときにこの対数尤度関数を最大とするようなパラメータを求める推定方法である.離散変数の場合は先ほどの制約を満たす中で上の対数尤度関数を最

  • Intelligence Architecture けんきうノート - EMアルゴリズム

    たとえば、複数の信号源があって、そこから毎回確率的にどれかの信号源が選ばれて発生されるデータを観測することを考えます。 ただし観測されたデータは、どの信号源から発生されたかはわからないとします。 また、データにはノイズがのっているなど、各々の信号源も確率的な挙動を示すことにしましょう。 このとき、観測できるデータだけから、確率モデルでモデル化した信号源(と信号源の混ざり具合)のパラメータ同定を行う手法として、以下で説明するEMアルゴリズムを利用することが出来ます。 観測データを \(X\) 、観測できないデータは特に隠れ変数と言い、\(Y\) とします。 どちらも確率変数です。 \(Y\) は上の例で言えば信号源のインデックス(どの信号源が選ばれたか)になります。 観測データと隠れ変数を合わせた \(Z=(X,Y)\) を完全データと言い、システムの全ての確率変数となります。 また便宜

  • 1