タグ

EMアルゴリズムに関するsimakawaのブックマーク (11)

  • EMアルゴリズム徹底解説 - Qiita

    ステップ2 $r_{nk}$を固定して$J$を$\mu_k$で偏微分して最小化します。 式変形をすると、 クラスタ$k$の最適なCentroidは上記のように、クラスター$k$に所属しているデータの平均であることがわかりました。 上記より最初のデモンストレーションで行っていたアルゴリズムは損失関数$J$の最適化によって導出されたものを適用していたことがわかります。 2−3. 実装 上記で示した2ステップを計算して、イテレーションを回すだけのシンプルなプログラムです。最後に更新前のmuと更新後のmuの差を取り、それがある程度小さくなったら収束したと判断し、イテレーションを止めるようにしています。 下記はアルゴリズム部分の抜粋です。プログラムの全文はコチラにあります。 for _iter in range(100): # Step 1 =============================

    EMアルゴリズム徹底解説 - Qiita
    simakawa
    simakawa 2019/06/29
     混合ガウスモデル
  • HMM: 隠れマルコフモデル - システム工学基礎

    HMM:隠れマルコフモデル 電子情報工学科 伊庭 斉志  一次マルコフ連鎖  状態集合 S={1,2,…n}  遷移確率(k→l) akl  隠れマルコフモデル(Hidden MM:HMM)  出力記号集合Σ  出力確率(状態から出力記号への写像) ek(b) : S → Σ マルコフモデルと 隠れマルコフモデル  HMM≒有限オートマトン+確率  定義  出力記号集合Σ  状態集合 S={1,2,…n}  遷移確率(k→l) akl  出力確率 ek(b)  開始状態 終了状態 0.4 0.6 0.3 0.7 0.5 0.5 1 2 3 A: 0.2 B: 0.8 A: 0.7 B: 0.3 A: 0.1 B: 0.9 隠れマルコフモデル(HMM) Rain Dry 0.7 0.3 0.2 0.8 • 2つの状態: ‘Rain’ と ‘Dry’. • 推移確率:

  • 『EMアルゴリズム』

    ぽんのブログ自分用の備忘録ブログです。書いてある内容、とくにソースは、後で自分で要点が分かるよう、かなり簡略化してます(というか、いい加減)。あまり信用しないように(汗 前回、前々回のベータ分布、ガンマ分布の最尤推定のアルゴリズムを眺めていると、そのままEMアルゴリズムの更新式を求められそうですね。 AIC のところで出てきたコーシー分布もEM法に持っていけそうです。 まぁ、コーシーのところで紹介した元論文は、元々混合 t 分布のEMアルゴリズムについてのものでしたし。 ガンマやベータ分布については、前回・前々回載せた最尤推定法に基づいたEMアルゴリズムでは実用性は疑問かもしれません・・・引用論文でも、最尤推定値への収束は遅い、とあるのでEMアルゴリズムではなおさらかも。 なにより、ガンマとかベータ分布の使いどころが想像できない・・・・・ まぁ、でも色々な分布について一応更新式を載せてゆき

    『EMアルゴリズム』
  • EMアルゴリズムを使って多峰型分布をモデル化してみる - Qiita

    概要 標から得られた分布が多峰型であったとき, 単純なガウス分布でモデル化するのは適切ではありません. 多峰型の分布は複数のガウス分布を組み合わせた混合ガウス分布を使ってモデル化することができます. この記事ではEMアルゴリズムを使って, 混合ガウス分布のパラメータを決定する例を紹介します. まずは単峰型分布から 最尤推定 標を$x_n (n=1,…,N)$とします. ガウス分布の最尤推定によって, 平均と分散を以下の形で求めることができます. \mu_{ML}=\frac{1}{N}\sum_{n=1}^N x_n \\\ \sigma^2_{ML}=\frac{1}{N-1}\sum_{n=1}^N (x_n-\mu_{ML})^2 # -*- coding: utf-8 -*- import numpy as np import matplotlib.pyplot as plt

    EMアルゴリズムを使って多峰型分布をモデル化してみる - Qiita
  • 今更聞けないEMアルゴリズムの解説

  • 最尤推定と EM アルゴリズム - kenta1984の日記

    最尤推定と EM アルゴリズムのまとめ。 基的には、最尤推定の発展バージョンが EM アルゴリズム。 言い換えれば、EM アルゴリズムは最尤推定が基にあるために、EM アルゴリズムを理解するためには最尤推定を理解することが必須。 最尤推定 最尤という言葉のせいで難しいイメージがあるが、極めて簡単。 表が 0.3 の確率で出るコイン A と表が 0.8 の確率で出るコイン B があるとする。 今、A か B か分からないがどちらかのコインを 3 回続けて投げたら、表、裏、表という順番で出た。 さあ、どっちのコインを投げたでしょう? このときに最尤推定を使えば簡単に分かる。(というか、最尤推定使わなくても感覚で分かるけど…) コイン A を使ったときの確率(=尤度)は、 0.3 × (1−0.3) × 0.3 = 0.063 コイン B を使ったときの確率(=尤度) 0.8 × (1−0.

    最尤推定と EM アルゴリズム - kenta1984の日記
  • MLAC2013 数式を使わずイメージで理解するEMアルゴリズム - Wolfeyes Bioinformatics beta

    はじめに Machine Learning Advent Calendar 2013の15日目を担当する@yag_aysです.専門はバイオインフォマティクスという計算機を使って生物学をする分野で,生モノではなく遺伝子の文字列相手に格闘している大学院生です.今回は初心者の人を対象に,なるべく数式を使わずにEMアルゴリズムについて解説してみたいと思います. EMアルゴリズムは,SVMやニューラルネットワークといった華々しい機械学習の手法の一つではなく,機械学習の中で使われる尤度最大化という一部分を担当するアルゴリズムです.そのため多くの人にとってEMアルゴリズムは,それ単体を使ってみたりだとか独自に改良をしたりするような対象ではないでしょう.でも,EMアルゴリズムなんて仰々しい名前が付けられているだけあって,いざ自分の仕事に組み込む場合には中身を理解していないと「なぜEMアルゴリズムを使ったの

  • EMアルゴリズムによる混合分布のパラメーター推定の解析計算&実装例 from 「Rによるモンテカルロ法入門」 - My Life as a Mock Quant

    問題設定 R言語の書籍「Rによるモンテカルロ法入門」 のEMアルゴリズムに関連した「練習問題5.14」をpthonの練習がてらEMアルゴリズム構築までの数式もメモりながら解いてみたというお話。問題設定としては という混合分布(分布から確率、分布から確率でサンプリング)から個サンプリングした状況を考えて、このパラメーターをEMアルゴリズムで推定するというもの。機械学習の分野でいう所の「教師なし2クラス分類」に該当する(たぶん)。 グラフを使ってもうちょっとちゃんと説明しておくと、実際に観察された青い棒グラフで示されているデータは赤色のグラフで示されているからのサンプルなのか、それとも緑色のグラフで示されているからのサンプルなのかを識別するための閾値的な量になっているというパラメーターを推定してましょうと、そして、既存のデータはのどちらの分布から来た可能性が高いのかを判断しましょうとそういう問

    EMアルゴリズムによる混合分布のパラメーター推定の解析計算&実装例 from 「Rによるモンテカルロ法入門」 - My Life as a Mock Quant
  • EMアルゴリズム | データサイエンティストに俺はなる!

  • EMアルゴリズム (The Expectation Maximization)

    EM アルゴリズム (The Expectation Maximization) 一般にデータは不完全であり、 それに基づいて推定しなければならない場合が多い。 また、 複雑な尤度関数の場合、 最尤推定値を求めることは困難な場合がある。 EM アルゴリズムは 不完全データの問題を完全データのフレームワークで逐次的にパラメーターの最尤推定量 を求めてゆく方法で、計算自体より実行し易いアルゴリズムである。ただし、局所的な極 大に到達してしまう可能性がある。 完全データ: , 不完全データ(観測データ) :Y 、 欠失データ: ) , ( Z Y X = Z : ) (X t Y = X からY への射影 <EM アルゴリズムの手順> パラメーターベクトルϑ の下での X の分布密度: ) ( ϑ X f ① [ n n Y X f E Q ϑ ϑ ϑ ϑ , ) ( log ) ( = ] :

  • 統計科学のための電子図書システム

    2019年10⽉1⽇ 統計科学のための電子図書システムは 統計数理研究所の機関リポジトリに移行しました。 移行後のページ

  • 1