タグ

2013年9月4日のブックマーク (3件)

  • カルバック・ライブラーダイバージェンスの覚え方とか - シリコンの谷のゾンビ

    久しぶりにブログ記事を書いてみる.リハビリがてらに軽いノリの記事を. 機械学習の勉強を始めてロジスティック回帰あたりに来ると出てくるカルバック・ライブラーダイバージェンス (以下KLd) .機械学習以外の文脈でも分布同士を比較する場合にまっさきに出てくる.僕は輪講などでKLdが出てくるたびに 「ふぅん,ここでカルバック・ライブラーダイバージェンスを使うんだぁ・・・」 とか言って通ぶっていたけれど,実は空で式を書けなかった.実に痛い子である.だって覚えづらい.とにかく覚えづらい. だっけ? だっけ? Q/P とか P/Q とかせっかく分子分母の順番を覚えても先頭にマイナスつけると分子分母が入れ替わるからまた性質が悪い. というわけで「じゃあちょっと書いてみて」と先生に当てられた際に,黒板に向かってスラスラと書くための覚え方を紹介してみる. さて,KLdといえば (非対称な) 分布の類似度であ

    カルバック・ライブラーダイバージェンスの覚え方とか - シリコンの谷のゾンビ
    jp-myk
    jp-myk 2013/09/04
  • DSIRNLP#4で発表させていただきました&他の発表者の方の資料メモ - Negative/Positive Thinking

    9/1にVOYAGE GROUPさんで行われたDSIRNLP#4勉強会で発表させていただきました 聴いていただいた方、ありがとうございました 勉強会のページ http://partake.in/events/76854228-ba38-4f6e-87b9-f79e30add75c 発表資料 http://www.slideshare.net/phyllo/weighted-finitestatetransducer Weighted Finite-state Transducerについて from phyllo 補足 「高速化できる」と口走ってしまっていたのですが、ケースに依存している話で、WFSTへの変換にかかる時間や構造の持ち方の問題で、元のモデルより必要なメモリが多くなったり、時間がかかることがあると思います どうやってモデルをWFSTに直すの?って部分は、例をはしょってしまっていた

    DSIRNLP#4で発表させていただきました&他の発表者の方の資料メモ - Negative/Positive Thinking
    jp-myk
    jp-myk 2013/09/04
  • Apache Sparkってどんなものか見てみる(その1 - 夢とガラクタの集積場

    こんにちは。 Kafkaを試している最中で微妙ですが、最近使えるのかなぁ、と情報を集めているのが「Apache Spark」です。 MapReduceと同じく分散並行処理を行う基盤なのですが、MapReduceよりも数十倍速いとかの情報があります。 ・・・んな阿呆な、とも思ったのですが、内部で保持しているRDDという仕組みが面白いこともあり、 とりあえず資料や論文を読んでみることにしました。 まず見てみた資料は「Overview of Spark」(http://spark.incubator.apache.org/talks/overview.pdf)です。 というわけで、読んだ結果をまとめてみます。 Sparkとは? 高速でインタラクティブな言語統合クラスタコンピューティング基盤 Sparkプロジェクトのゴールは? 以下の2つの解析ユースケースにより適合するようMapReduceを拡張

    Apache Sparkってどんなものか見てみる(その1 - 夢とガラクタの集積場
    jp-myk
    jp-myk 2013/09/04