エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
最短でリッジ回帰とラッソ回帰を説明(機械学習の学習 #3) - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
最短でリッジ回帰とラッソ回帰を説明(機械学習の学習 #3) - Qiita
はじめに 数学素人の「機械学習の学習」メモです。 今回は、リッジ回帰とラッソ回帰について、数学素人... はじめに 数学素人の「機械学習の学習」メモです。 今回は、リッジ回帰とラッソ回帰について、数学素人が「最短で」理解できることを目指しています。 ※このグラフ↓をみて意味が理解できなかったので、素人なりに解釈を頑張ってみた記録です。 1. 過学習とは 過学習とは「訓練データに対する誤差は小さいが、テストデータに対する誤差が大きい状態のこと」です。 機械学習では過学習がしばしばおこるらしいです。 我々は「未知のデータ」に対する誤差を小さくしたいので、訓練データに過度にフィット(過学習)しないように調整する必要があります。 過学習状態の誤差関数 過学習となっている誤差関数は、グラフが大きく振れる形をとることが多いそうです。大きく振れる、ということは、重み(回帰係数)が大きい状態です。 過学習を抑えるためには、重みを小さくしたほうがよさそうです。 2. 正則化法 目的の関数(誤差関数)にペナルティ