エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ridge回帰とlasso回帰 - Qiita
概要 ridge回帰とlasso回帰について個人的に理解/納得できたことがあるので、その備忘としてのメモ。 数... 概要 ridge回帰とlasso回帰について個人的に理解/納得できたことがあるので、その備忘としてのメモ。 数学が大嫌いな人間が、こういう風に解釈したら納得できた、という程度のメモである。数学的に正しいかどうかは全く保証しないので、注意されたし。 どちらも線形回帰を拡張したもの。 なぜ拡張するかと言えば、線形回帰に問題があるから。具体的には、過学習しやすい、ということ。 さらに、おまけ程度ではあるものの、lasso回帰では、特徴量削減(変数削減)ができるというおまけ効果もついてくる。 線形回帰(多項回帰)の振り返り 単純なところで考えると、↓の形で予測をする線形回帰を考える。$\hat{y_i}$が予測で、$w_0$は切片、$w_{1,i}$はi番目の変数に対する回帰係数を表す。 $\hat{y_i} = w_0 + w_1 * x_{1,i}$ この時、最小二乗誤差で考えた時の誤差関数は