PRML5章から図5.3を再現するために、ニューラルネットワークを実装してみます。 先に申し上げておきますと、偉そうに実装とか言ってるものの、コードから再現した図は歯切れの悪いものとなっております。。。 まず、図5.3(b),(c),(d)に関してはPRMLの中の図に比べて予測精度がいまいち良くない印象。さらに、図5.3(a)に関しては全く見当はずれな予測が返ってくるという状況。試行錯誤しましたが、力不足でして、どなたか間違い気づかれましたらご指摘下さい。 ニューラルネットワークや、誤差伝播法(Backpropagation)そのものの解説はPRMLやはじパタなどに任せるとして、実装に必要な部分だけざっと確認したいと思います。 実装の大まかな流れ ①ニューラルネットを経たアウトプットは(5.9)で表される。PRML文中の式は活性化関数にシグモイド関数を想定しているが、図5.3ではtanh(
PRML復々習レーン#15に参加してきました. 前回のあらすじ資料を以下にアップしました. PRML復々習レーン#15 前回までのあらすじ from sleepy_yoshi 9.3.4と9.4を担当.発表資料を以下にアップ. PRML復々習レーン#15 9.3.4-9.4 from sleepy_yoshi 割と熱を入れて発表させていただいた.EMアルゴリズムでなぜ対数尤度を増加させることができるのか,ということをかなり丁寧に説明できたつもり.EステップとMステップの意味というもの,Q関数とはなんだろう,というあたりもようやく理解できたので,個人的には満足のいく発表資料. 9章のあとには変分法について付録Dをエクストリームリーディング.へとへと. この記事も1か月以上経って書いているので,細かいことは忘れてしまった. ブログ記事アップまでが勉強会で(ry
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く