概要 多層パーセプトロン記事の補足。下の記事の最後で、入力されたデータを隠れ層で線形分離しやすい形に変換している、ということを確かめたかったが、MNIST データでは次元が高すぎてよくわからなかった。ということで、もうちょっとわかりやすい例を考える。 可視化シリーズとしては以下の記事のつづき。 ロジスティック回帰 (勾配降下法 / 確率的勾配降下法) を可視化する - StatsFragments 多層パーセプトロンとは 詳細は上記の記事参照。この記事では、以下のような多層パーセプトロンを例とする。 入力層のユニット数が 2 隠れ層のユニット数が 3 出力層のユニット数が 2 つまり、入力層として 2 次元のデータを受けとり、隠れ層で 3 次元空間へ写像してロジスティック回帰 ( 出力は2クラス ) を行う。 サンプルデータ 2 次元で線形分離不可能なデータでないとサンプルの意味がない。こ
![多層パーセプトロンの動きを可視化する - StatsFragments](https://cdn-ak-scissors.b.st-hatena.com/image/square/5f145e98f5e1589dd50249dd64fbc259b7404d37/height=288;version=1;width=512/http%3A%2F%2Fcdn-ak.f.st-hatena.com%2Fimages%2Ffotolife%2Fs%2Fsinhrks%2F20141130%2F20141130172556.gif)