概要 園田翔『深層ニューラルネットの積分表現理論』[3]という論文の中で「(浅い)ニューラルネットワークがしていることは 双対リッジレット変換 (の離散化)である」ということが解説されています. この論文では入力を一般の $m$ 次元にとり,活性化関数として ReLU やシグモイド関数を含む超関数のクラスに対して結果を与えています.が,そのぶんとても難しいです. 1 そういうわけで,本稿では上の論文で提案されている「オラクルサンプリング」という手法を 活性化関数として Gauss 核 $\eta(x) = \exp(-x^2/2)$ (急減少関数)を用い, $m = 1$ 次元の場合に限って 解説し,さらにその数値実験をしようと思います. (本稿を読む前に園田先生のスライド[2]に目を通しておくことをおすすめします.) 使ったもの Python 3.6.0 Chainer v3.1.0 O