並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 9 件 / 9件

新着順 人気順

特異値分解の検索結果1 - 9 件 / 9件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

特異値分解に関するエントリは9件あります。 数学math などが関連タグです。 人気エントリには 『リーマン多様体上の最適化―特異値分解の例を通して― - 冷めたコーヒー』などがあります。
  • リーマン多様体上の最適化―特異値分解の例を通して― - 冷めたコーヒー

    はじめに 特異値分解 特異値分解と最適化問題 リーマン多様体上での特異値分解 $\mathrm{St}(p,m)\times\mathrm{St}(p,n)$ 上の最適化 接空間 レトラクション $R_{(U,V)}$ 勾配 $\mathrm{grad} F(U,V)$ リーマン多様体上での共役勾配法 Pymanopt による求解 モジュールのインポート 解くべき最適化問題の定義 最適化手法の定義 出力内容 おわりに 参考文献 おまけ はじめに 以前(2019 年 11 月)に「リーマン多様体上の最適化の初歩と Pymanopt による数値実験」 という記事を投稿した. mirucacule.hatenablog.com 記事内で用いた最適化 Toolbox である Pymanopt のバージョンアップに伴い,実行方法に変更が生じたため改めて書き直そうと思ったのが本記事を執筆するに至った経

      リーマン多様体上の最適化―特異値分解の例を通して― - 冷めたコーヒー
    • 分解すると見える世界 ー特異値分解ー

      はじめに 世界解釈において「分解」ほど人間に愛されたものはないのではないかと思う。幼い頃のアルバム写真に写る背丈の小さな私と無残に解体された玩具。水を電気分解した化学の実験。仕事場でブレイクダウンという声が聞こえる。仕事を小さな粒度に分けることをそう呼ぶらしい。 ただ、単に大きくて複雑な何かを一度に認知できないだけかもしれない。にしても、とかく人間は小さな単位を追い求めるような気がする。だから数学においても、分解という手段に打って出るのはなんら不思議なことではないと思える。 行列を行列で分解する とある正方行列$A$が固有値$λ$、固有ベクトル$p$を持つとしましょう。このとき、これら3つの文字が方程式$Ap = λp$で結ばれます。これが前回の内容でした。 実は1つの行列に対して固有値・固有ベクトルの組は複数存在する場合があります。仮に$n$個の組があったとすると、 $$Ap_1=λ_1

        分解すると見える世界 ー特異値分解ー
      • 特異値分解の計算方法を手順ごとにまとめてみた - Qiita

        はじめに E資格の数学問題で何かと話題の「特異値分解」。数式や社会への応用例については多くのサイトで解説されていますが、手計算でどうやって解いてくのか?を解説したものはあまり見かけないように思います。 $$ A = U \Sigma V^T $$ なので、E資格数学の登竜門ともされる(と個人的に思う)特異値分解の手順を、自己流ながらまとめました。ここおかしい!というところがありましたらツッコミをお願いします。 この記事は数学の計算過程を書いています。線形代数の行列に関する知識(ベクトルの内積、行列の和、積、行列式、固有値、固有ベクトル)に関する知識が必要です。 特異値分解の手計算の手順 特異値分解は線形代数の様々な計算法を使用します。これら1つでも間違うと正解を得ることができないので、 以下のステップごとに、着実にマスターしていく必要があります。 $U$、$\Sigma$、$V$の行列の形

          特異値分解の計算方法を手順ごとにまとめてみた - Qiita
        • 特異値分解を詳しく解説 - Qiita

          はじめに 特異値分解は機械学習ではよく使われるテクニックだが、大学の教養過程で使うような線形代数の教科書には載っていなかったりする。 書店で色々探した結果、こちらの本に分かりやすい解説があり、理解が深まったのでまとめておく。 線形代数セミナー: 射影,特異値分解,一般逆行列 金谷 健一 (著) 今回は特異値分解の解説のみで、具体的な活用法はまた別の機会に書く。 定義 ${\rm rank}(\boldsymbol A)=r$ の $m \times n$ 行列 $\boldsymbol A$ を考える。 ただし、$r < m < n$とする。 $\rm rank$って何?という方はあまり気にしなくても大丈夫ですが、気になる方はこちらの記事を参照。 このとき、$\boldsymbol A$の特異値分解は下記のように表される。 $$\boldsymbol A = \boldsymbol U \

            特異値分解を詳しく解説 - Qiita
          • 大名行列を特異値分解してみる - Qiita

            はじめに 線形代数には、特異値分解という操作があります。行列を特異値と、それをくくりだす行列に分解する処理です。この分解は可逆処理ですが、特異値の大きいところだけを取り、小さいところを無視することで元の行列を近似することができます。近年、この性質を利用した情報圧縮が様々な場所で積極的に利用されています。筆者の身近なところでは、量子状態をテンソルネットワークで近似する際、特異値分解が中心的な役割を果たします。 本稿では、特異値分解がどういう処理なのか、実際に簡単な行列で試してみて、「なるほど情報圧縮だなぁ」というのを実感することを目的とします。 コードは以下においておきます。 https://github.com/kaityo256/daimyo_svd Google ColabでJupyter Notebookを開きたい場合はこちらをクリックしてください。 まず細かいことはさておき、特異値

              大名行列を特異値分解してみる - Qiita
            • E資格で必須の特異値分解解説 - HELLO CYBERNETICS

              はじめに 特異値分解 定義 特異値分解の嬉しさ 行列の低ランク近似 主成分分析の解法 行列による増幅率を定義 特異値と特異ベクトルの実態 最後に はじめに 予め断っておきます。私はE資格を持っていませんし受けたこともありません。 なんか特異値分解は知識として必須らしいという話だけ聞きました。なのでタイトルに入れました(完全に検索対策である)。 タイトルは動機不純として…、特異値分解はデータ分析にしても信号解析にしても、線形代数での必須知識だと思われるのでここで解説しておきます。 特異値分解 定義 特異値分解は定義だけ述べれば、行列 $\mathbf X \in \mathbb C ^ {m \times n}$ に対する下記で表される分解手法です。 $$ \bf X = U \Sigma V ^ * $$ ここで $\mathbf U \in \mathbb C ^ {m \times m

                E資格で必須の特異値分解解説 - HELLO CYBERNETICS
              • 推薦システム初心者におすすめの手法「行列分解」とは? ~特異値分解からCB2CF法によるコールドスタート問題解決まで~

                データをもとに、ユーザーが気に入りそうなアイテムを推薦する推薦システムは、通販サイトや求人サイトなど、生活のいたるところで利用されています。本連載では推薦システムについて学びたい開発者やデータサイエンティスト、およびプロダクトのユーザー体験を向上させたいと考えている方向けに、接触履歴情報のみを用いる「暗黙的フィードバック」を用いた推薦システムの概要と代表的なアルゴリズム、およびそれらの長所と短所を解説します。前回は、推薦システムの概要と、実装に必要なリソースを解説しました。今回は、推薦システムで最もポピュラーな手法である行列分解(Matrix Factorization)について説明します。 接触履歴を用いた推薦で最も一般的な手法:行列分解 推薦システムのトップ会議であるRecSysにおける2016年のチュートリアルでは、「もしたった一つの手段を選ばなければいけないのであれば、行列分解は最

                  推薦システム初心者におすすめの手法「行列分解」とは? ~特異値分解からCB2CF法によるコールドスタート問題解決まで~
                • 固有値分解、特異値分解のメリット(機械学習の学習 #1) - Qiita

                  はじめに 機械学習の学習をはじめました。調べたこと学んだことを記録しています。 1.行列の種類と特徴 機械学習の学習で出会ったものをまとめます。学習が進めば編集する予定です。 2.固有値分解 2.1. 固有値と固有ベクトル 正方行列$A$、スカラ$\lambda$、0ベクトルでないベクトル$\vec{x}$に対して以下が成り立つとき、 $$ A\vec{x}=\lambda\vec{x} $$ $\lambda$を行列$A$の固有値、$\vec{x}$を行列$A$の固有ベクトルといいます。 2.2. 固有値分解 正方行列$A$が固有値$\lambda$、固有ベクトル$\vec{v}$を持つとき、 \begin{align} A &=V\Lambda V^{-1} \\ \end{align} \\ ただし、 \Lambda = \begin{pmatrix} \lambda_1 & & \

                    固有値分解、特異値分解のメリット(機械学習の学習 #1) - Qiita
                  • 特異値分解と低ランク近似 - Qiita

                    はじめに 情報工学科出身なので、特異値分解は大学2,3年生の頃に履修しているのだが、就職して2年ほど統計・機械学習分野から離れていたため、今回の復習を備忘録として記録。参考書籍はこちら。 本稿では特異値分解の基礎および実際の画像を使った復元を実装してみる。 概要 そもそも特異値分解(Singular Value Decomposition;SVD)とはなんだっけ、というところから理解を始める。 ずばりその目的は、高次元データをシステマチックに低次元へ近似することにある。 実際のデータは特徴量が多く、高次元ベクトルのデータ分析が求められることが常であるため、特異値分解はデータサイエンス領域において非常に重要な役割を担い、さまざまな技術の基礎となっている;動的モード分解、主成分分析、固有直交分解など。 また、次元圧縮以外にも劣決定性/優決定性問題や擬似逆行列などにおいても強力な応用を持つ。 導

                      特異値分解と低ランク近似 - Qiita
                    1

                    新着記事