タグ

lasso-regressionに関するnabinnoのブックマーク (2)

  • リッジ(Ridge)回帰・ラッソ(Lasso)回帰の違い

    線形モデル(linear model)は、実用的に広く用いられており、入力特徴量の線形関数(linear function)を用いて予測を行うものです。 まず、説明に入る前に言葉の定義から紹介します。 線形回帰 データがn個あるとした時にデータの傾向をうまく表現することができるy=w_0×x_0+....+w_n×x_n というモデルを探し出すこと 正則化 過学習を防いで汎化性を高めるための技術で、モデルに正則化項というものを加え、モデルの形が複雑になりすぎないように調整している (モデルの係数の絶対値または二乗値が大きくなってしまうと、訓練データのモデルに適合しすぎて、テストデータのモデルの当てはまりが悪くなる過学習という現象が起こるので、過学習を避けるために正則化項をつけている) 重み 説明変数(求めたいものに作用する変数)が目的変数に与える影響度合いを表現したものです。例えば上の線

    リッジ(Ridge)回帰・ラッソ(Lasso)回帰の違い
  • リッジ回帰とラッソ回帰の理論と実装を初めから丁寧に - Qiita

    はじめに 前回の記事で重回帰分析の導入をしてみたので、今回はその続きということで、2つ同時にやってみたいと思います。 ベクトルの微分公式については下記のブログが参考になります。 もしこの記事がお役に立てた時はQiitaのイイねボタンを押していただけると励みになります。 参考記事 「ベクトルで微分・行列で微分」公式まとめ 重回帰分析 リッジ回帰について考える際に、重回帰分析の理解はマストになるのでここでも見ていこうと思います。式変形については、前回の記事で詳しく導入したので少しだけ端折っていきます。 準備 説明変数$x_1, x_2, x_3, \cdots, x_m$を$\boldsymbol{x}$($x$のベクトル)とする 予測値を$\hat{y}$とする($\hat{y}$はスカラー) 回帰係数を$w_1, w_2, w_3, \cdots, w_m$を$\boldsymbol{w}

    リッジ回帰とラッソ回帰の理論と実装を初めから丁寧に - Qiita
  • 1