2016年2月14日のブックマーク (3件)

  • GitHub - hillbig/binary_net: experimental binary net implementation in chainer

    load MNIST dataset epoch 1 graph generated train mean loss=0.573861178756, accuracy=0.92756666926 test mean loss=0.473955234885, accuracy=0.957400003672 epoch 2 train mean loss=0.456328810602, accuracy=0.963833337426 test mean loss=0.436628208458, accuracy=0.966100006104 epoch 3 train mean loss=0.431186137001, accuracy=0.970866675178 test mean loss=0.425710965991, accuracy=0.968000004292 epoch 4 t

    GitHub - hillbig/binary_net: experimental binary net implementation in chainer
    kitanokumo
    kitanokumo 2016/02/14
    binarynetのmnist 精度はオリジナルmnistサンプルより若干劣る 実行速度も
  • グラフィカルモデルによる確率モデル設計の基本 - 作って遊ぶ機械学習。

    今回から数回にわたって、グラフィカルモデルを利用した確率モデルの設計についてお話しします。従来の統計モデルと比べ、機械学習機械学習たらしめているものの一つは、扱う現象の複雑さにあると言えます。複雑な現象を解析するためにはそれに見合った複雑なモデルが必要で、それを簡潔に記述するための方法としてグラフィカルモデルが開発されました。 「グラフィカルモデルを使って現象をモデル化し、必要に応じて近似推論法を用いて未知の値を推定する」 という一連の流れが身につくと、いろんなデータサイエンスの課題に対してシンプルかつフォーマルに取り組めるようになります。 それではまず始めに、超超超重要な確率の加法定理と乗法定理の確認をしてみましょう。 ・加法定理(sum rule)*1 \[ p(x) = \sum_y p(x,y) \] ・乗法定理(product rule) \[ p(x,y) = p(x|y)p

  • グラフィカルモデルを使いこなす!~有向分離の導入と教師あり学習~ - 作って遊ぶ機械学習。

    さて、前回はグラフィカルモデルの描き方と簡単な事後確率の推論をやってみました。今回以降は、下記のようなもう少し現実的な確率モデルに対する推論をグラフィカルモデル上でやってみる予定です。 ・教師あり学習(今回) ・半教師あり学習 ・共変量シフト ・転移学習 ・潜在変数モデル(EMアルゴリズム) 今回は導入として、有向分離(D-separation)と呼ばれる、より複雑なモデルに対する確率変数の独立性をチェックするための手法を紹介します。これを使って、教師あり学習である回帰モデルや識別モデル(2つともグラフィカルモデル上の区別はないです)に対する推論結果がどうなるかを見てみたいと思います。 今回やることも基的には前回の3つのノードを使った単純なグラフィカルモデルと同じです。 machine-learning.hatenablog.com あるグラフィカルモデルが与えられ、さらに一部のノードが