サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
アメリカ大統領選
dr-kayai.hatenablog.com
トピックモデルのサーベイ講演したので貼っておきますね。 複数のパターン認識応用の立場でサーベイした話はたぶんないので価値あると思います。詳細版はPRMUの2015年12月予稿を入手(購入)してください。 さて、これを英語論文化しないといけないわけだが。 20151221 public from Katsuhiko Ishiguro www.slideshare.net
同僚のpython expertにNumbaの存在を教えてもらいました。 Examples — numba 0.14.0-63-ge5ceea5 documentation 事前のコンパイルがいらないってのはよろしいですね。 必要そうな関数レベルだけで書けば良さそうだし、exampleみると大体使い方がわかったような気がします。 というか@jit + 引数の形という1行を足すだけですか???基本的に。 vanilla pythonで書いたうえでsanity checkが終わったら、1行書き足すだけでhappyに慣れるとは、どれだけindulgeすれば気が済むのか・・・ Cythonとの比較を・・・・と思ったら、ありますね Numba vs Cython Numba vs. Cython: Take 2 1行たして1000倍速い!!しゅごいいいい 試してみた というわけで試してみました。自宅
今までずっと*1学習したモデルとかは パラメータをテキストに書き出して再度読み込ませていました。 が、それってダメだったんですね。 いや、ダメじゃないんだけど。 シリアライズ、覚えました。 経緯 今、scikit-learnのSVMパッケージ http://scikit-learn.org/stable/modules/svm.html#svm を使っているのですが、それで沢山のSVMモデルを学習して、 後で再利用するということが必要です。 そこで、SVMインスタンスの内部パラメータをファイルに書き出して再読み込みしようとしたところ、動きませんでした。 幸い、近くにscikit-learnのコントリビュータがいるのでどうすればいいか聴いたところ、 シリアライズしなよ ということでした。 scikit-learnにおける、モデルのシリアライズのやり方 http://scikit-learn.
最早旧聞に属しますが、 "SIGIR Paper Writing Tips" SIGIR Paper Writing Tips - Microsoft Research 自分はIRの人ではないですが、CV(PR), NLP, MLな人にも役立ちそうな事が多いので超意訳してみます。超意訳なので、正しいことは保証しません。「あれ?」と思った方はご自身でちゃんと英和辞書引いてください・・・ Tip 17は本当に秀逸ですよねぇ~~~ ライセンスから このTipsはPeter Baileyによるもので、 Creative Commons Attribution-NonCommercial Creative Commons — Attribution-NonCommercial 3.0 Unported — CC BY-NC 3.0 に従って頒布されますよっと。 もし何か問題があることにお気づきの方
ここではMachine Learning Advent Calendarの一記事として、ベイズ推論の研究者の間で少しだけ認知され始めたCollapsed Variational Bayes(周辺化変分ベイズ、CVB)にもとづく推論のお話をします。 なお、私はあくまでユーザとしてCVBを使っているだけです*1。でも、多分間違ったことは書いていないと思います。もし間違ってたら教えていただけると嬉しいです。 そもそも確率的生成モデルとかが分からない方はPRMLや統数研の公開講座「確率的トピックモデル」の 資料などをご覧ください。 CVBのご利益 まずは、既存のベイズ推論手法に対してのadvantageです。 高精度: 理論的には大域解を得られるはずのGibbs samplerに比しても、だいたい同程度、しばしばより良い解が得られます 収束が早い: 多くの場合、素早く収束します 実装が簡単(比較級
このページを最初にブックマークしてみませんか?
『Bag of ML Words』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く