Summary: Neural networks have grown in scale over the past several years, and training can require a massive amount of data and computational resources. To provide the required amount of compute power, we scale models to dozens of GPUs using a technique common in high-performance computing (HPC) but underused in deep learning. This technique, the ring allreduce, reduces the amount of time spent co
今年(2015年)に入り,いっきに一般の単語となった観があるDeep learning(深層学習). 流行語大賞の候補に入りそうな勢いです. Google Trendsにて日本での「Deep learning」「深層学習」の検索数推移を見てみました. 2014年後半から右肩上がりの角度が急になっています. ちなみに国別で見てみたのが下図.最大5カ国まで同時表示できますので,各国見てみました. 中国が多い.たしかにこの前のDeep learningを使った認識コンテストでも,TOP10に中国の大学があちこち入っていました. しかしアメリカと比較してもこんなに多いのはなぜ?グラフが急激に下がっているのも意味不明. 話がそれましたが,とにかくDeep learningもここまで一般化すると今更やっても遅い感があります.しかし,始めなければチャンスもありません.まだ可能性はあると思います. そこで
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く