タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

pythonとPythonとnmfに関するteddy-gのブックマーク (5)

  • NMF

    NMF# class sklearn.decomposition.NMF(n_components='auto', *, init=None, solver='cd', beta_loss='frobenius', tol=0.0001, max_iter=200, random_state=None, alpha_W=0.0, alpha_H='same', l1_ratio=0.0, verbose=0, shuffle=False)[source]# Non-Negative Matrix Factorization (NMF). Find two non-negative matrices, i.e. matrices with all non-negative elements, (W, H) whose product approximates the non-negative

    teddy-g
    teddy-g 2016/02/27
    Scikit-LearnのNMFの使い方説明公式ページ。Initial処理にランダム以外にNNDSVDも指定できる。fit_transformで次元削減した行列が得られて、components_に削減したFeatureが格納される。便利。
  • NMF for Topic Modeling | Derek Greene's Home

    Topic modeling is a key tool for the discovery of hidden structure in large collections of documents. Probabilistic methods, such as Latent Dirichlet allocationTopic modeling is a key tool for the discovery of hidden structure in large collections of documents. Probabilistic methods, such as Latent Dirichlet allocation (LDA), are often employed by using tools such as the Java MALLET library. Howev

    NMF for Topic Modeling | Derek Greene's Home
    teddy-g
    teddy-g 2016/02/25
    Scikit LearnでBBCのニュース(テキスト)をNMFで分析する話、の解説記事のほう。ふむふむなるほど。
  • Jupyter Notebook Viewer

    teddy-g
    teddy-g 2016/02/25
    Scikit LearnでBBCのニュース(テキスト)をNMFで分析する話。この通りにipythonで走らせたらちゃんと結果が出てくる。なるほど。
  • 非負値行列因子分解 - sonoshouのまじめなブログ

    このエントリーは、集合知プログラミング第8章を参照にしています。 非負値行列因子分解は、データマイニングの手法の一つである。 データの重要な特徴を抽出するために用いられる。 非負値行列因子分解は、non-negative matrix factorizationの日語訳であり、 よくNMFと省略されるので、こちらの省略形も覚えておきたい。 非負値行列因子分解の基的なアイディア非負値行列因子分解は、その名の通り、行列を正の数(非負値)で因子分解することで、 特徴の抽出を行う。 因子分解とは、掛け合わせることで再び分解前の行列を構築できるような 2つの小さな行列を探し出すということである。 非負値行列因子分解の例以下、具体例を交えながら解説する。 文書の記事と記事内に存在する単語との対応付けがあるとき、 これらに対してNMFで特徴を抽出する。 対応付けの表は以下のようになっているとする。

    非負値行列因子分解 - sonoshouのまじめなブログ
    teddy-g
    teddy-g 2016/02/25
    Collective IntelligenceのNMFの説明そのままといってよい。備忘。
  • PythonのnimfaでNMFを試す - About connecting the dots.

    PythonでNMFやるには,nimfaというパッケージを使えばよいらしいです.とりあえず使うだけなら,適当なnumpy行列vecを用意して,以下のように関数に投げてあげます. factor = nimfa.mf(vec, seed='random_vcol', method='nmf', rank='5', max_iter=10) res = nimfa.mf_run(factor).basis() とりあえずシードはランダムで,手法はベーシックなnmf.何次元に削減するかをrankで指定して,イテレーション回数を決めればOKです. nmfは関連手法が山ほどあって,ざっと以下のようになります.説明文は基的に意訳です.正直意訳があってるかも自信はないので,こちらから元論文を読みましょう*1. 手法 概要 BD ギブスサンプラーを使ったベイジアンNMF BM バイナリのMF ICM It

    PythonのnimfaでNMFを試す - About connecting the dots.
    teddy-g
    teddy-g 2016/02/25
    nimfaっていうパッケージでNMFできるらしい。が、Scikit-Learnにもあるし使うかどうかは微妙。
  • 1