タグ

ノンパラに関するesakenのブックマーク (2)

  • ノンパラベイズを勉強してみる (2) ディリクレ過程 - nokunoの日記

    ノンパラベイズを勉強してみる (1) unigramとディリクレ分布 - nokunoの日記の続きです。とはいえディリクレ過程は単体で応用されることが少ないので、検索しても混合ディリクレ過程についての情報ばかり出てきてしまいました。単体のディリクレ分布については、最後に書いたのがほとんど全てに近いようです。ディリクレ過程とは 無限次元に拡張されたディリクレ分布のようなもの理論的には無限次元まで増やせるという意味で、最初から無限次元を仮定するわけではない逐次的に次元を増やしていく仕組みが組み込まれている逐次的に生成するモデルだが、出てくる確率は生成した順番に無関係(交換可能)自然言語処理においては、語彙を無限に増やせるunigramの確率モデルとして使える混合ディリクレ過程を使うと、混合分布においてクラスタ数を自動的に決定できるこのようにディリクレ過程はディリクレ分布の拡張ですが、ノンパラメ

    esaken
    esaken 2011/10/10
    観測したデータに合わせてパラメータ調整できる感じ?ちょっと書いてみて勉強しますか
  • 統計的機械学習セミナー (1) sequence memoizer - 木曜不足

    統計数理研究所にて行われた第2回統計的機械学習セミナーにのこのこ参加してきました。 http://groups.google.com/group/ibisml/browse_thread/thread/092f5fb3d45a91ea/8cae858cb8bfc00c 今回はノンパラメトリックベイズ特集ということでか、Yee Whye Teh さんが sequence memoizer を、持橋さんが教師無し&半教師分かち書きを話されたので、まずは sequence memoizer について自分のわかる範囲で書いてみよう。 まず、Pitman-Yor 過程については既知とする。ご存じない方は、「独断と偏見によるノンパラ入門」を読めばだいたいわか……んないか(苦笑)。 ええと、とりあえず今回必要な範囲で説明すると、G という単語の分布(ただし台は無限。つまり「独断と偏見〜」でいう「その他」

    統計的機械学習セミナー (1) sequence memoizer - 木曜不足
  • 1