タグ

hmmに関するyukimori_726のブックマーク (6)

  • pythonでHMMのパラメータ推定実装 - Qiita

    はじめに python で HMM のパラメータ推定を実装しました. 教科書として『続・わかりやすいパターン認識』を使いました. 記事の構成 Hidden Markov Model サイコロ投げ 記号の整理 評価 forward algorithm backward algorithm 推定 Baum-Welch algorithm スケーリング 実装 結果 おわりに Hidden Markov Model 一時点前の状態に依存して現在の状態が確率的に決まるような特性を マルコフ性 と呼び, マルコフ性を満たす過程を マルコフ過程 と呼びます. このような事象の例として,株価や音声信号,言語などが挙げられます. マルコフモデルにおいて,出力記号の系列のみ観測でき,状態の系列が観測できないモデルを 隠れマルコフモデル(Hidden Markov Model) と呼びます. サイコロ投げ H

    pythonでHMMのパラメータ推定実装 - Qiita
  • 続・わかりやすい パターン認識 教師なし学習入門 [隠れマルコフモデル・ビタービアルゴリズムの実験] - Qiita

    隠れマルコフモデル・ビタービアルゴリズムをPythonを使って実装してみた 続・わかりやすいパターン認識―教師なし学習入門―の隠れマルコフモデル・ビタービアルゴリズムをPythonを使って実装してみました 続・わかりやすいパターン認識―教師なし学習入門― c = 3 # 状態数 s = [ "w1", "w2", "w3" ] # 状態 m = 2 # 出力数 v = [ "v1", "v2" ] # 出力記号 n = 3 # 観測回数 # それぞれの状態の初期確率 p = [ 1/3, 1/3, 1/3 ] # 状態遷移確率 A = [ [ 0.1, 0.7, 0.2 ], [ 0.2, 0.1, 0.7 ], [ 0.7, 0.2, 0.1 ] ] # 状態毎のでのそれぞれの観測確率 B = [ [ 0.9, 0.1 ], [ 0.6, 0.4 ], [ 0.1, 0.9 ] ] #

    続・わかりやすい パターン認識 教師なし学習入門 [隠れマルコフモデル・ビタービアルゴリズムの実験] - Qiita
  • 続・わかりやすい パターン認識 教師なし学習入門 [前向きアルゴリズム・後ろ向きアルゴリズムの実験] - Qiita

    隠れマルコフモデル・前向きアルゴリズム・後ろ向きアルゴリズムをそれぞれPythonを使って実装してみた 続・わかりやすいパターン認識―教師なし学習入門―の隠れマルコフモデル・ビタービアルゴリズムをPythonを使って実装してみました 続・わかりやすいパターン認識―教師なし学習入門― 隠れマルコフモデル・前向きアルゴリズム・後ろ向きアルゴリズム numpyでシンプルに実装したものは一番下に記述しています。 c = 3 # 状態数 s = [ "w1", "w2", "w3" ] # 状態 m = 2 # 出力数 v = [ "v1", "v2" ] # 出力記号 # それぞれの状態の初期確率 p = [ 1/3, 1/3, 1/3 ] # 状態遷移確率 A = [ [ 0.1, 0.7, 0.2 ], [ 0.2, 0.1, 0.7 ], [ 0.7, 0.2, 0.1 ] ] # 状態毎の

    続・わかりやすい パターン認識 教師なし学習入門 [前向きアルゴリズム・後ろ向きアルゴリズムの実験] - Qiita
  • How do I train HMM's for classification?

    So I understand that when you train HMM's for classification the standard approach is: Separate your data sets into the data sets for each class Train one HMM per class On the test set compare the likelihood of each model to classify each window But how do I train the HMM on each class? Do I just concatenate the data pertaining to one class together? But isn't the time series data meant to be sequ

    How do I train HMM's for classification?
  • Microsoft PowerPoint - Ishiguro_IBIS_presentation.pptx

    NTT Communication Science Labs. NTT コミュニケーション科学基礎研究所 石黒 勝彦 2011/11/10 第14回 情報論的学習理論ワークショップ NTT Communication Science Labs. • SNSにおける友達コミュニティ抽出 • オンラインショッピング履歴に基づくレコメンド • 論文と著者の組み合わせによる研究トピック解析 NTT Communication Science Labs. • SNS上の友達関係は簡単に変化します • CMが当たると突然商品が売れ出します • 研究プロジェクトや異動で共著者は変わります NTT Communication Science Labs. 0 1 0 1 0 0 0 1 0 1 0 1 0 0 0 1 0 1 0 1 0 1 0 1 0 0 1 0 1 1 1 0 0 1 0 1 1 フォロ

  • Rで「隠れマルコフモデル」の解析

    「隠れマルコフモデル」を少し勉強してみたので、まとめてみる。 モデルの考え方について一番参考になったのは、ここ(pdf)と、ここ(pdf)と、ここだ。 ▼隠れマルコフモデルの考え方 隠れマルコフモデルを一言でいうと、 時間的に非定常な観測事象を、「(隠れた)複数の定常状態が、マルコフ性を持つ確率過程で遷移し、それぞれの定常状態の確率分布に従って観測事象が生起される」という考え方で記述しようとするモデル。 といえる。文章で言っても伝わりづらいので、考え方のイメージを下の図に示す。 観測事象が図上部の折れ線グラフに示されている。ここで観測事象は何でもよい。株価の騰落率の時間変化でも良いし、ある店舗の売り上げの時間変化でも良い。ここで例にあげた図の観測事象は、時間に関して初期・中期・後期のそれぞれで振る舞いが異なるように見える。 これをモデルに落とし込むため隠れマルコフモデルは「隠れた定常状態(

    Rで「隠れマルコフモデル」の解析
  • 1