タグ

ブックマーク / convexbrain.sourceforge.jp (2)

  • Intelligence Architecture けんきうノート - GMM-Clustering

    ここにあります。 ただしGMM#p4の共分散行列の更新式は \[ S_i^{t+1} = { \sum_n (x_n-\mu_i^t)(x_n-\mu_i^t)^T E(y_{ni}) \over \sum_n E(y_{ni}) } \] と、\(\mu_i^{t+1}\) の代わりに \(\mu_i^t\) を使いました。 なんとなくループの数とか依存関係とか減らしたかったので。 コードチューンしようってわけではないですが癖ですね。 結果は問題ないようです。 収束判定のための \(\ln p(X|\theta)\) はMステップ直後ではなく、Eステップで計算してます。 \(\phi_k N(x_n|\mu_k, S_k)\) が使いまわせて効率がいいので。 これも無意識にやってた。。。 3クラスからなる2Dのデータ↓を与えてクラスタリングしてみました。 正解の色がついてますが、実際には

  • Intelligence Architecture けんきうノート - GMM

    Gaussian Mixture Model(混合正規分布モデル)は以下のようなデータ生成モデルです。 K個のクラスがあるとする。対応して、K個の正規分布が存在する。 まず、K個からひとつランダムに選ぶ。 次に、選ばれた正規分布に従ってデータベクトル \(x_n\in {\bf R}^D\) を生成する。 これを N回繰り返して \(X=(x_1,\ldots,x_N)\) を得る。 この \(X\) が観測データとなるわけです。 一方、\(x_n\) を生成したクラスはどれかを表す変数を \(y_n\) として、\(Y=(y_1,\ldots,y_N)\) とおきます(隠れ変数)。 \(y_n\) は、普通に考えれば、単に1からKのスカラ値を持てばいい気がします。 ですが後の式変形の便宜上、ひとつの要素だけが1のK次元ベクトルである(\(y_n\in\{0,1\}^K\))とし

    satojkovic
    satojkovic 2010/05/31
    Gaussian Mixture Model
  • 1