タグ

機械学習とEigenに関するxiangzeのブックマーク (3)

  • Stacked denoising AutoEncoder書いた - jam system

    2013-09-02 Stacked denoising AutoEncoder書いた C++ Neural Net コード stacked denoising autoencoder、C++で書いた。 場所はここhttps://github.com/JamSystem/SdAE Eigenというライブラリを使用。Ubuntu 13.04では一応動く。 モデルは pretrainingにdenoising autoencoder http://www.cs.toronto.edu/~larocheh/publications/icml-2008-denoising-autoencoders.pdf 出力レイヤには二乗正則化のロジスティクス回帰 を使用 読み込めるデータセットの形式は最初にlabel in Nのラベルがあって、 次に素性のインデックスとその値がfeature_index:fe

  • 密/疎ベクトルのトレードオフを調べてみた - ny23の日記

    k-means を実装していて,疎ベクトルと密ベクトルのトレードオフ(距離計算の速度差)が気になったので軽く実験してみた.具体的に知りたかったのは,どれぐらい疎なら疎ベクトルを使った方が距離計算が速くなるか,という問に対する答え.空間使用率の改善については sparse vector における index と value の型のサイズ比でほぼ自明に分かるが,速度に関してはコンパイラの最適化の加減もあるので良く分からない.以下がテストコード(ややずぼらな実装). [追記] 折角なので,Eigen 3.0-beta2 とも比べてみた. #include <sys/time.h> #include <cstdio> #include <cstdlib> #include <cstring> #include <vector> #include <tr1/random> #include <eig

    密/疎ベクトルのトレードオフを調べてみた - ny23の日記
  • 確率的勾配降下法による行列分解を試してみた - のんびり読書日記

    前々回のNMF(Non-negative Matrix Factorization)に続いて行列分解ネタです。言語処理学会全国大会のチュートリアル「推薦システム -機械学習の視点から-」で紹介されていた、確率的勾配降下法による行列分解を試してみました。チュートリアルの資料は公開されていないようでしたので、元論文の方のリンクを張っておきます。実際には同じ著者の別の論文を引用されてましたが、僕には下の論文の方が分かりやすかったのでこっちで。 MATRIX FACTORIZATION TECHNIQUES FOR RECOMMENDER SYSTEMS, Yehuda Koren, Rovert Bell, Chris Volinsky, IEEE Computer, Volume 42, Issue 8, p.30-37, 2009 作成したコードは以下に置いてあります。行列演算にEigenを

    確率的勾配降下法による行列分解を試してみた - のんびり読書日記
  • 1