![](https://cdn-ak-scissors.b.st-hatena.com/image/square/d74e58175811b082778d553bffa215a796692e5d/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9JUUzJTgzJUFBJUUzJTgzJTgzJUUzJTgyJUI4JUU1JTlCJTlFJUU1JUI4JUIwJTI4TDIlRTYlQUQlQTMlRTUlODklODclRTUlOEMlOTYlMjklRTMlODIlOTIlRTclOTAlODYlRTglQTclQTMlRTMlODElOTclRTMlODElQTYlRTUlQUUlOUYlRTglQTMlODUlRTMlODElOTklRTMlODIlOEImdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPThlMjA3NmNhNThkMzc4YzRjNTU5MzljYTVhODhkMzVk%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBnLWsmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTQ3ZmZlN2Q5MjFlNGE0MWViYTY4Y2RiYjQzZWE0NmQ1%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3D654fe358a54919df1d81be9acb9804d1)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
リッジ回帰(L2正則化)を理解して実装する - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
リッジ回帰(L2正則化)を理解して実装する - Qiita
はじめに 重回帰分析の発展として正則化について勉強しました。 今回はリッジ回帰(L2正則化)についてま... はじめに 重回帰分析の発展として正則化について勉強しました。 今回はリッジ回帰(L2正則化)についてまとめています。 参考 リッジ回帰(L2正則化)の理解に当たって下記を参考にさせていただきました。 機械学習のエッセンス 加藤公一(著) 出版社; SBクリエイティブ株式会社 正則化の種類と目的 L1正則化 L2正則化について リッジ回帰とラッソ回帰の理論と実装を初めから丁寧に リッジ回帰(L2正則化)概要 重回帰分析の復習 リッジ回帰は重回帰分析を行う際の損失関数に対して正則化項を付与したものになります。 重回帰分析は下記のような損失関数を最小化する重みを見つけることで、最適な回帰式を導きだします。 $$L = \sum_{n=1}^{n} (y_{n} -\hat{y}_{n} )^2$$ $y_{n}$は実測値 $\hat{y}_{n}$の予測値 ベクトルの形式で表現するとこのような感