サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ノーベル賞
cs.nyu.edu/~wanli
Li Wan, Matthew Zeiler, Sixin Zhang, Yann LeCun, Rob Fergus Dept. of Computer Science, Courant Institute of Mathematical Science, New York University Introduction We introduce DropConnect, a generalization of Hinton's Dropout for regularizing large fully-connected layers within neural networks. When training with Dropout, a randomly selected subset of activations are set to zero within each layer.
このページを最初にブックマークしてみませんか?
『cs.nyu.edu』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く