エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
最適化と学習アルゴリズム
最適化と学習アルゴリズム 勾配降下法 直線探索 劣勾配降下法 ニュートン法 確率的勾配降下法 学習にお... 最適化と学習アルゴリズム 勾配降下法 直線探索 劣勾配降下法 ニュートン法 確率的勾配降下法 学習における計算効率の問題 既に説明した回帰、識別(分類)の解法で得た閉じ た式は逆行列計算が必要。例えば、線形回帰の場 合の正規方程式の解である重みベクトルは w=(XTX)-1XTy 学習データが高次元になると(XTX)の次元も大きく なり、逆行列の計算はコストが高い(次元数の3乗) 要は損失(=Loss)を最小化したい 正規方程式の場合は2乗誤差だった。 逆行列計算を避けて最適化する方法が実用 上重要。 記法:損失(Loss) zz y m L y m y m L yloss m L my D m i ii m i ii m i ii m i ii ii i ,0max ,1 1 , 1 , 1 2 ,on