タグ

MCMCに関するsleepy_yoshiのブックマーク (2)

  • LDA のパープレキシティを使うとき - 木曜不足

    NLP2012 のポスター発表にて、LDA の文字を見かけるたびに思わずフラフラ〜と近寄り、あーだこーだ無責任なことを述べていたら、決まって「 shuyo さんですよね?」 なんでも、お茶の水大の小林先生の研究室の学生さんはみなさん揃って(かな?)トピックモデルをなにがしか絡めて研究されており、このブログの LDA ネタを参照していただけているという。なんとも有り難いというか照れくさいというか。 なにがしかのお役に立てているのはもちろん嬉しい反面、n_shuyo は言語処理も機械学習も専門家ではないので、ここに書いてあることを鵜呑みにはしないでいただくことはやっぱりお願いしておかなければ。 というわけで、不足や間違いの指摘は絶賛大歓迎>読者各位 で、ここまで前振り。 そうしたポスターの発表を拝見させていただいていた中で、パープレキシティ周りの扱いがちょっと気になったので、少し思うところをま

    LDA のパープレキシティを使うとき - 木曜不足
  • メトロポリス法による正規分布からのサンプリング - 木曜不足

    TokyoNLP #9 で tkng さんが MCMC で正規分布からサンプリングしてみたけど、1000件ぐらいだとなかなかきれいな釣鐘型にならない、という話をされていた。 途中の系列を捨ててないということだったので、そのせいでは? と思ってちょっと試してみたが、結論としては、そもそも 1000件くらいではきれいなヒストグラムにならないということがわかった。 それは R で「ちゃんとした正規分布からのサンプリング」を使ってヒストグラムを書けばすぐわかる。あえてグラフは載せないので、自分で実行してみてね。 hist(rnorm(1000), breaks=30) これで終わったら芸がないので、「相関を抑えるにはどれくらい捨てればいいか」を確認してみた。 まずはメトロポリス法による正規分布サンプリングのソース。 スライドで一瞬見ただけなので多分いろいろ違っているだろうがまあ大丈夫? #!/us

    メトロポリス法による正規分布からのサンプリング - 木曜不足
  • 1