タグ

svdに関するteddy-gのブックマーク (3)

  • Singular value decomposition and principal component analysis

    Citation: Wall, Michael E., Andreas Rechtsteiner, Luis M. Rocha."Singular value decomposition and principal component analysis". in A Practical Approach to Microarray Data Analysis. D.P. Berrar, W. Dubitzky, M. Granzow, eds. pp. 91-109, Kluwer: Norwell, MA (2003). LANL LA-UR-02-4001. Also available in the arXiv.org e-Print archive and in Adobe Acrobat (.pdf) format. Abstract. This chapter describe

    teddy-g
    teddy-g 2017/03/26
    SVDとPCAについて。ちょっと熟読したい。
  • TruncatedSVD

    TruncatedSVD# class sklearn.decomposition.TruncatedSVD(n_components=2, *, algorithm='randomized', n_iter=5, n_oversamples=10, power_iteration_normalizer='auto', random_state=None, tol=0.0)[source]# Dimensionality reduction using truncated SVD (aka LSA). This transformer performs linear dimensionality reduction by means of truncated singular value decomposition (SVD). Contrary to PCA, this estimato

    teddy-g
    teddy-g 2016/02/27
    scikit-learnを使って特異値分解(SVD)。UとVはいいとして、Σはどうやって得るんだろ。
  • すべてがMFになる - Fire and Motion

    すべてがFになる,映像化するみたいですね.犀川創平も西之園萌絵も配役がイメージと違って一部で話題になっていました.さて,最近テンソル分解を使った論文をよく見かけるのですが,いまだにきちんと整理できずにいます.テンソルかわいいよ,テンソル. そこで,まずは行列分解(matrix factorization, matrix decomposition)を整理してみようと思います.行列の分解手法というと線形代数的な観点からは簡単に思いつくだけでも 固有値分解 LU分解 コレスキー分解 などがありますが,これらは分解前の行列と分解後の行列が一致する(たとえばA=LU)方法です.一方で,機械学習やデータマイニング界隈(特にレコメンデーション等)で出てくる行列分解というのは,大規模データや関係性データの中から低ランクの構造を抽出することや次元圧縮を目的としています.なので,正確に言うならば,行列分解と

    すべてがMFになる - Fire and Motion
    teddy-g
    teddy-g 2016/02/24
    SVD、PCA、CUR分解、NMFの違いと類似性を図を使って説明してる。直感的に理解するのによい。
  • 1