エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
縮小ランク回帰
M 次元のベクトル x から N 次元のベクトル y への 写像で雑音 S が加わるもの y = Lx + S を考えます。... M 次元のベクトル x から N 次元のベクトル y への 写像で雑音 S が加わるもの y = Lx + S を考えます。L は線形写像を表す行列です。 実世界の問題において、 L がフルランクであることは 少なく、L のランクが M, N よりも小さいことが しばしば起こります。 仮に L のランクが H であると考えて、 Ax が H 次元のベクトルになるように設計したモデル y=BAx + S のことを縮小ランク回帰といいます。つまり A は M 次元ベクトルから H 次元ベクトルへの線形写像です。 ここで B と A が 行列で、この二つがパラメータです。 現実の問題では、真のランクはわかりませんが、 データから真のランクを 知るにはどうしたら良いでしょうか。 この問題を考えるとき、真のランクが r であるときの 確率的複雑さや汎化誤差の挙動がわかっていると、データから 計算した
2020/11/30 リンク