タグ

2017年7月13日のブックマーク (2件)

  • DropConnect Neural Network

    Li Wan, Matthew Zeiler, Sixin Zhang, Yann LeCun, Rob Fergus Dept. of Computer Science, Courant Institute of Mathematical Science, New York University Introduction We introduce DropConnect, a generalization of Hinton's Dropout for regularizing large fully-connected layers within neural networks. When training with Dropout, a randomly selected subset of activations are set to zero within each layer.

    masatoi
    masatoi 2017/07/13
    DropConnectの方がよさげ
  • 最近のスパースなニューラルネットワークについて - SmartNews Engineering Blog

    こんにちは、スマートニュースの徳永です。深層学習業界はGANだとか深層強化学習だとかで盛り上がっていますが、今日は淡々と、スパースなニューラルネットワークの話をします。 要約すると ニューラルネットのスパース化によって、精度はほとんど犠牲にせずに、計算効率は3〜5倍程度まで向上できる スパース化にはまだ課題が多く、ニューラルネットの高速化という意味では、次の戦場はたぶんここになる スパースとは、スパース化とは スパースであるとは、値のほとんどが0であることです。例えば、ベクトル$a,b$の内積を計算する際に、$a$のほとんどの要素の値が0であるとしましょう。0になにをかけても0ですから、$a$の値が0でない次元についてのみ、$a_i b_i$の値を計算して足し合わせればよいわけです。このように、内積を計算する際に、どちらかのベクトルがスパースであれば計算が高速化できます。0という値をメモリ

    最近のスパースなニューラルネットワークについて - SmartNews Engineering Blog
    masatoi
    masatoi 2017/07/13