2018年9月19日のブックマーク (2件)

  • ニューラルネットワークの積分表現理論&積分表現理論改 - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに こんにちは。そろそろ就職活動継続が辛くなってきた来夏です。正直早くtwitter就活一に切り替えたい。twitterで送られてくる求人が上質すぎて(給料めっちゃ高いor給料は普通だけどめちゃくちゃ自由な働き方ができる)、正直就活サイトで企業漁るのがバカらしくなってきた。 この夏はインターン行ってきます。すでにインターン内定取ってるE社、確定しかかってるI社研究所、課題提出したばっかりでまだまだこれからって感じだけど一番行きたいP社、果たしてどうなるのやら。 それはさておき、今回は私の十八番、ニューラルネットワークの積分表現理

    ニューラルネットワークの積分表現理論&積分表現理論改 - Qiita
    p1sces
    p1sces 2018/09/19
    ニューラル積分
  • ニューラルネットの積分表現理論――リッジレット変換とオラクルサンプリングによる3層パーセプトロンの学習の数値実験 - Qiita

    概要 園田翔『深層ニューラルネットの積分表現理論』[3]という論文の中で「(浅い)ニューラルネットワークがしていることは 双対リッジレット変換 (の離散化)である」ということが解説されています. この論文では入力を一般の $m$ 次元にとり,活性化関数として ReLU やシグモイド関数を含む超関数のクラスに対して結果を与えています.が,そのぶんとても難しいです. 1 そういうわけで,稿では上の論文で提案されている「オラクルサンプリング」という手法を 活性化関数として Gauss 核 $\eta(x) = \exp(-x^2/2)$ (急減少関数)を用い, $m = 1$ 次元の場合に限って 解説し,さらにその数値実験をしようと思います. (稿を読む前に園田先生のスライド[2]に目を通しておくことをおすすめします.) 使ったもの Python 3.6.0 Chainer v3.1.0 O

    ニューラルネットの積分表現理論――リッジレット変換とオラクルサンプリングによる3層パーセプトロンの学習の数値実験 - Qiita
    p1sces
    p1sces 2018/09/19
    ニューラル積分