エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
深層学習AIをエッジで動かす、東芝と理研がスパース化現象でパラメータ8割削減 - MONOist(モノイスト)
(左)手書き数字画像10クラスの「MNIST」という画像データセットにおいて、4層の全結合ネットワークを... (左)手書き数字画像10クラスの「MNIST」という画像データセットにおいて、4層の全結合ネットワークを用いた実験の結果。コンパクト化なしのネットワークから認識精度0.02%の低下で、パラメータ数を83.7%削減可能であることを確認した。(右)一般物体認識のベンチマークとしてよく使われている「CIFAR-10」という画像データセットにおいて、16層の畳み込みニューラルネットワークを用いた実験の結果。認識精度の低下が約1%以内の範囲では、正則化強度を変更することでネットワークのパラメータ数を30~70%程度削減でき、DNNのサイズを柔軟に変更できることを確認した(クリックで拡大) 出典:東芝 スパース化現象が起こる学習条件は3つある。1つ目は、DNNの表現力を高めるために一般的に導入される非線形関数ReLU(Rectified linear unit)を活性化関数として用いる場合だ。2つ目は
2018/12/19 リンク