エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
リッジ回帰とラッソ回帰の使い分けの基準(メモレベル) - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
リッジ回帰とラッソ回帰の使い分けの基準(メモレベル) - Qiita
リッジ回帰とラッソ回帰はどう使い分けるのだろう? 調べた際の勉強メモ。 最初はリッジ回帰とラッソ回... リッジ回帰とラッソ回帰はどう使い分けるのだろう? 調べた際の勉強メモ。 最初はリッジ回帰とラッソ回帰って何?という基本的な話です。 不要な方はスキップ。 続いて、使い分けを扱います。 リッジ回帰とラッソ回帰とは何か 回帰モデルを作る時に使う手法。 回帰係数を推定する際、損失関数を最小化するように係数を決める。 その時に過学習を防ぐための工夫がこらされている。 どんな手法?ー損失関数に正則化項を仕込む。 その正則化項には2種類ある L1正則化項とL2正則化項である。 L1正則化項は、回帰係数の絶対値の和 L2正則化項は、回帰係数の自乗の和 λ(ラムダと読む)はコストパラメータ。 つまりλが大きくなる →回帰係数は0に近づく →バリアンスが小さくなっていく →過学習を回避しやすくなる ↓ラッソ回帰のみ記載だがリッジ回帰も同様 じゃあどうリッジ回帰とラッソ回帰はどう使い分けるの? 使い分けは以下