タグ

ブックマーク / aidiary.hatenablog.com (2)

  • ニューラルネットの並列化 - 人工知能に関する断創録

    強化学習の並列化を行っている研究(昨日の)はテーブル形式の状態行動空間(Qテーブル)を各プロセッサに分割する方法が取られている。しかし、状態行動空間が巨大な場合はテーブル形式で表すことはできずニューラルネットなどを用いて状態を汎化する方法がとられる(関数近似)。そのようなわけで、ニューラルネットを用いた強化学習の並列化はどうすればよいか気になっていた。 ニューラルネットの並列化はどうやるか?という点がそもそも疑問。ニューラルネットはPDP(Parallel Distributed Processing:並列分散処理)とも呼ばれそれ自身で並列分散計算を行っているが、並列計算機への実装という観点からはどうか? あるデータ群Aで正しく出力するように学習したニューラルネットAとそれとは別のあるデータ群Bで正しく出力するように学習したニューラルネットBがあるとする。このとき、AとB両方のデータ群を入

    ニューラルネットの並列化 - 人工知能に関する断創録
  • 多層パーセプトロンによる関数近似 - 人工知能に関する断創録

    パターン認識と機械学習(PRML)まとめ(2010/8/29)の続きです。以下、つづくかも?になってましたが、2014年はDeep Learningを勉強しよう(2014/1/4)と思っているので、関連するニューラルネットワーク関係の実験結果をもう少し追記します。 今回は、PRMLの5章ニューラルネットワークの中から図5.3にある多層パーセプトロンによる関数近似をPythonで実装してみました。 上の図にあるようにxを入れたときにsin(x)の近似値を出力するようなニューラルネットワークを学習します。もっと詳しく言うと (x, sin(x)) のたくさんの組(訓練データ)を教師データとして用いて、xを入れたときにsin(x)の近似値を出力するようにニューラルネットワークの重みを更新します。 多層パーセプトロン(Multilayer perceptron) p.228にあるようにバイアスパラ

    多層パーセプトロンによる関数近似 - 人工知能に関する断創録
  • 1