エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
過学習を防ぐ「正則化」とは?
ホーム < ゲームつくろー! < IKD備忘録 VisualStudio + Pythonでディープラーニング 過学習を防ぐ「正... ホーム < ゲームつくろー! < IKD備忘録 VisualStudio + Pythonでディープラーニング 過学習を防ぐ「正則化」とは? (2019. 12. 30) 前の章でドロップアウトによって過学習を回避できる事を実験で試してみました。ドロップアウトは層に入ってくる入力値を一時的にゼロ化する事でデータの密度を疎にする処理でした。一方で本章で取り上げる「正則化(Regularization)」も同様に過学習を防ぐ手法の一つですが、その対象はデータではなく「推定値」です。「あえて推定の精度を下げる」という驚きの発想で過学習を防止します。いったいどういうからくりなのか、じっくり見ていきましょう。 ① 評価関数にペナルティーを与える ニューラルネットワークに限らずいわゆるフィッティングでは、一般にパラメータの数を増やしていくと当てはまりの指標である評価値をいくらでも小さくしていく事が出来