2016年11月1日のブックマーク (2件)

  • 6年間待ち続けたアニメのブルーレイの予約をキャンセルした。

    2008年、僕はその世界に恋をした。 そう、あれは今から8年も前のことで、僕はまだ大学生だった。軽い気持ちで入ったオタサーに所属しており、新作アニメで目についたものを、取り敢えず視聴するのを習慣にしていた。それらの内容について、サークルメンバーとうだうだ語るのが日課だった。とはいえ、ぬるま湯めいたモラトリアム生活にそろそろだれ始めたまさにその時、破格のアニメ、既存の枠組みをぶちこわすような、エポックで世界観をもったアニメシリーズが放映され始めて、僕は瞬く間に虜になった。アニメ一期の遥か前からOVAや企画などの展開があって、物語の背後にとてつもない情報量を含んだ異世界が広がっているのを知って、沼にはまり込むようにその世界へ沈んでいった。DVDを買い、マンガを買い、小説を買い、ゲームを買い、記事の載っている雑誌を買い、ドラマCDを買い、同人誌を買い、SSを読み、ラジオを聞き、イベントに足を運ん

    6年間待ち続けたアニメのブルーレイの予約をキャンセルした。
    clannad35
    clannad35 2016/11/01
    ストパンか 新作やってることすら知らんかった
  • 正規分布間のKLダイバージェンスの導出 - 唯物是真 @Scaled_Wurm

    多変量(多次元)正規分布のKLダイバージェンスの求め方 - EchizenBlog-Zwei 上の記事を読んで勉強になったのですが、数式がテキストで読みづらかったのと、多変量でない1次元の正規分布の導出の段階でよくわからなかったので調べて記事にまとめました 注意 数式はMathJax(JavaScriptのライブラリ)を使って表示しています SVGが描画できないと表示されないので、最近のブラウザで閲覧してください KLダイバージェンス(Kullback–Leibler divergence) 確率分布の差の大きさを測る尺度。 機械学習の分野だとパラメータの最適化などは、結局KLダイバージェンスの最小化と同じになることが多い。 とか論文を読んでいるとよく出てくる 式 2つの確率分布\(P, Q\)を考える 確率分布が連続確率分布の時KLダイバージェンスは以下のようになる $$D_{\mat