みんな深層学習してるかな? さて、GoogLeNetとか、みんな好きかな?オレはわりと好き。 なにしろプリトレインドモデルがあるからお手軽なんだよね。そこが好き。 あと、なにしろalexnetはデカすぎる。 なんでこんなにデカイんだ、という感じ。まあ1GBくらいなんだけど、Raspberry Piだと普通に読み込めないほど巨大なのよね。 しかし自分で作ったニューラル・ネットワークにImageNetのILSVRC2012を学習させようとするとやばいことになる。 なんということでしょう。 この圧倒的絶望感 SSDonlyでこのスピードですからね。 9日経っても1エポックすら進んでいないとは 一説によると、GoogleのGPU(TPU?)ファームは3万GPU(Maxwell世代だと合計約1億2千万コア)あるらしく、1000GPU(300万コア)でILSVRC2012の学習に1日かかるらしい。 火