![](https://cdn-ak-scissors.b.st-hatena.com/image/square/0b6ca76c595d24b1b2c524f9a25423b432b2ff20/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fait%2Farticles%2F2008%2F12%2Fcover_news015.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント4件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
バーニーおじさんのルール(Uncle Bernie's rule)とは?
連載目次 用語解説 機械学習におけるバーニーおじさんのルール(Uncle Bernie's rule)とは、ニューラル... 連載目次 用語解説 機械学習におけるバーニーおじさんのルール(Uncle Bernie's rule)とは、ニューラルネットワークの重みパラメーターの数に対して、最低限その10倍以上の訓練データ量が必要となる、とする経験則のことである。訓練データの数量の目安とされるが、定理ではなく、あくまで経験則である。その出典(後述)も古く(=最近のディープラーニングに適用できるかどうかは不明で)、数学的に証明されているわけでもないので注意が必要だ。 孫引用になってしまうが1990年(NIPS 1989)の論文の一節を引用すると、 Rules of thumb suggesting the number of samples required for specific distributions could be useful for practical problems. Widrow has sug
2020/08/13 リンク