タグ

2009年11月30日のブックマーク (3件)

  • 第9回PRML読書会 - 遥かへのスピードランナー

    土曜日はサイボウズ・ラボで行われた第9回PRML読書会に参加しました。 自分は発表者トップバッターでSVMの基的なところを説明しました。 参加者の方からもいろいろ指摘をいただきました。 なぜマージンを最大化するとよいのか?の説明で『まず2値に分類された学習データをガウスカーネルでのParzen推定を適用して入力の分布を推定する。誤分類が最小になる分類平面は、ガウスカーネルの分散を→0の極限において、マージンを最大化する分類平面に一致する』とあるが、なぜ分散を0に近づけるのかがわからない。 そういうものとして理解するしかない?理論的な説明はまだ分からずです。。 Randomized Algorythmを適用してSVMの計算を高速化する手法がある。 ちょっとググってみたところこの辺ですかね。いろいろと制約はるみたいですがO(log n)で二次計画問題の近似解が求まる! biasをゼロと仮定し

    第9回PRML読書会 - 遥かへのスピードランナー
  • xyzzy のじかん - tiny-segmenter - xyzzy Lisp だけで実装されたコンパクトな分かち書きソフトウェア

    パッケージ名 tiny-segmenter バージョン 1.1.0 ライセンス 修正 BSD 更新日 2008-07-19 18:31:38 カテゴリ Development、Libraries、Text Processing 依存ライブラリ なし tiny-segmenter は TinySegmenter (Javascript だけで実装されたコンパクトな分かち書きソフトウェア) を xyzzy lisp に移植したものです。 上記 URL によれば以下のような特徴があります。 日語の新聞記事であれば文字単位で 95% 程度の精度で分かち書きが行える 分かち書きの単位は MeCab + ipadic と互換 辞書を使っていない (機械学習のみ) ダウンロード ダウンロード ドキュメント 変更履歴 変更の詳細および過去の履歴は NEWS を参照してください。 2008-07

  • [論文] Parallel Inference for Latent Dirichlet Allocation on Graphics Processing Units - tsubosakaの日記

    NIPS 2009のonline papersがすでにダウンロードできるように*1なってたのでタイトルを眺めていたらGPUでLDAを並列化するという論文があって読んだので少し紹介してみる。 まず、彼らの論文[1]ではLDAの推論アルゴリズムのうち、Collapsed Gibbs sampling(CGS)とCollapsed Variational Bayes(CVB)の2つに関して並列化を試みているがCollapsed Gibbs samplingの方に関してのみ紹介する。また、彼らの論文ではGPGPUの統合開発環境としてCUDAを用いている。 LDAについて LDAは論文[2]で提案された、文章生成モデルでトピック分析などに広く用いられている。 モデルの推論アルゴリズムとしては変分ベイズ[1]、ギブスサンプリング[4]、EP、collapsed 変分ベイズ[5]などが知られている。 こ

    [論文] Parallel Inference for Latent Dirichlet Allocation on Graphics Processing Units - tsubosakaの日記