はじめまして.デンソーアイティーラボラトリの坂倉義明(@a2ki)と申します.よろしくお願いします. さて,今日は,Extreme Learning Machine(ELM)についてご紹介します.ELMは,Single Layer FeedForward Neural Networkの高速な学習スキームです.今流行のDeep Networkとは真逆ですね. 高速化のポイントは,入力層から隠れ層への重みの学習を諦めることです.具体的な手順として,回帰の場合以下になります. 入力層から隠れ層への重みをランダムに生成 隠れ層の出力(活性化関数を通した)を計算 2と教示データの回帰係数を求め(疑似逆行列)隠れ層から出力層への重みとする そりゃはやいっすよね… ここで疑問になるのが,これで良いのかという点.これに関し提案者は,「有界・区分連続・な活性化関数,十分な数の隠れ層を用いれば,ELMは任意の
![Extreme Learning Machine](https://cdn-ak-scissors.b.st-hatena.com/image/square/7b9cd5c9535b538a81d61710d69c556cdda1d638/height=288;version=1;width=512/https%3A%2F%2Ftech.d-itlab.co.jp%2Fwp-content%2Fthemes%2Ftechblog%2Fimages%2Fog.png)