エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Sequence Memoizer のメモ « 谷口忠大HomePage (たにちゅーのHP) — tanichu.com –
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Sequence Memoizer のメモ « 谷口忠大HomePage (たにちゅーのHP) — tanichu.com –
Sequence Memoizer は Wood や Tehらによって提案された,∞gramモデル. ∞グラムモデルっていうのは,ま... Sequence Memoizer は Wood や Tehらによって提案された,∞gramモデル. ∞グラムモデルっていうのは,まぁ,Nグラムモデルなんですが,要はコンテクスト長がノンパラメトリックということ. 持橋さんの論文曰く,当時最高性能の Kneser-Neyスムージングがその近似となっている言語モデル Hierarchical Pitman-Yor Language Model ですが. そのN-gram長はgivenだった. これを,コンテクスト長可変にしようというのが,∞グラムモデルといえるだろう. “可変”という視点から,比較的自然につくられているのが,持橋さんの VPYLM もしくは IMMなわけですが, Pitman-Yor 過程に基づく可変長n-gram言語モデル http://chasen.org/~daiti-m/paper/nl178vpylm.pdf これは