自動車業界MBDエンジニアのためのSimulink入門-4週間で学ぶSimulink実践トレーニング- (MBD Lab Series)posted with カエレバ久保孝行 TechShare 2012-11-19 Amazonで探す楽天市場で探すYahooショッピングで探す 目次 目次 はじめに 関数(APIs) reshape isdiag vstack hstack kron block_diag 参考資料 MyEnigma Supporters はじめに PythonのNumpyやScipy、 またはMATLABなどを使って、 プロトタイプを作成し、 そのシステムをC++に移植しようとすると、 C++の行列演算ライブラリEigenの関数(API)の少なさに 悲しくなることがあります。(NumpyやMATLABがすごいだけなのですが...) Eigen そこで、NumpyやSci
TensorFlowのMNIST Tutorialを初めて動かした時にPCファンがごーっと回りだし、おやっとCPU利用率を確認してみたらほぼほぼ100%に張り付いていたのを見たのが、本題について調べようと思ったきっかけです。ユーザー側からのコンフィグなしにどのようにマルチスレッドをTensorFlowで実現しているのか調べてみました。 環境 以下の通り仮想マシン上でTensorFlowを動かしています。 - CPU: Intel Core i5-4570, 3.2GHz, 4 cores, Haswell (ark.intel.com) - Ubuntu 16.04 on VMware Workstation 12 - 4仮想CPU、8GBメモリ - Python 3.5.2 - GNU G++ 5.4.0 - master branch of tensorflow github $ gi
2013-09-02 Stacked denoising AutoEncoder書いた C++ Neural Net コード stacked denoising autoencoder、C++で書いた。 場所はここhttps://github.com/JamSystem/SdAE Eigenというライブラリを使用。Ubuntu 13.04では一応動く。 モデルは pretrainingにdenoising autoencoder http://www.cs.toronto.edu/~larocheh/publications/icml-2008-denoising-autoencoders.pdf 出力レイヤには二乗正則化のロジスティクス回帰 を使用 読み込めるデータセットの形式は最初にlabel in Nのラベルがあって、 次に素性のインデックスとその値がfeature_index:fe
この記事はGPGPU Advent Calendar19日目の記事です 山田「まじでやばいです」 w_o大先生「あと四時間あるよ」 という会話をしたのが20時のこと。 ArrayFire vs Boltをやろうとしたのですが、BoltがLinuxのSDKに入っていない疑惑が漂ってちょっと探してみたのですがあんまり見つからなかったので、今日はEigen vs ArrayFireです はじめに謝っておきます。 このGPGPUAdCの2日目に偉大なるw_o大先生の論文紹介にありましたが……GPUとCPUの性能比較はCPUでガチガチにしたあとで行われるべき、という話があります。 Eigenの内部を見まくったわけではないのですが、ガチガチに最適化されているかというと、それがわかりませんというのが率直な話です。とはいえ、ある程度最適化はされているようです。ですので、中身を良く知らないままArrayFi
海野です。 自然言語処理などで機械学習を行おうとすると、非常に疎なベクトル表現を使いたくなります。疎、というのはほとんどの要素が0である、という意味です。前々から疎ベクトルライブラリのパフォーマンスに関して気になっていたので、幾つか調べてみました。 Jubatus Workshopでも話したとおり、機械学習を適用しようとすると、普通は対象のデータをベクトル表現に落とします。特に言語データの場合は、それぞれの単語や文字などを特徴次元とするため、非常に疎なベクトルとなってしまいます。純粋な配列(C++で言えばstd::vector)を使ってしまうと、大量にメモリを食ってしまうため疎ベクトル専用の表現を使うのが普通です。 今日は様々な疎ベクトルライブラリのパフォーマンス比較を行おうと思います。比較したライブラリは以下のとおり。真の意味で、疎ベクトルのライブラリは、Eigenとublasだけで、残
k-means を実装していて,疎ベクトルと密ベクトルのトレードオフ(距離計算の速度差)が気になったので軽く実験してみた.具体的に知りたかったのは,どれぐらい疎なら疎ベクトルを使った方が距離計算が速くなるか,という問に対する答え.空間使用率の改善については sparse vector における index と value の型のサイズ比でほぼ自明に分かるが,速度に関してはコンパイラの最適化の加減もあるので良く分からない.以下がテストコード(ややずぼらな実装). [追記] 折角なので,Eigen 3.0-beta2 とも比べてみた. #include <sys/time.h> #include <cstdio> #include <cstdlib> #include <cstring> #include <vector> #include <tr1/random> #include <eig
ハイパーお久しぶりです. 修論に追われていて,先輩方に言われた「正月はもう一週間前に終わった」という言葉をかみしめています (とてもにがい). 今日は,ARPACK を使って Eigen の実対称行列の固有値・固有ベクトルを求めるために薄いラッパーを書いたので,ご紹介いたします. beam2d/arpaca - GitHub 基本的な使い方は README に書いてあります. 求めたい固有値の数と種類 (実数 (or 絶対値) の意味で大きい (or 小さい) 方からいくつか,あるいは次数の意味で両側から合わせていくつか) を指定して,行列を渡すだけです. 行列は掛け算にだけ用いられるので,Eigen の Expression Template を直接渡すこともできます. また README の 2 番目の例のように,対象となる行列をベクトルにかける演算を自分で書いて渡せば,その固有値を求
uBLAS http://www.boost.org/ みんなだいすきBoostの一部 CLAPACK http://www.netlib.org/clapack/ LAPACK(Fortran)のC版 LAPACK++ http://math.nist.gov/lapack++/ CLAPACKをさらにC++にしたもの Blitz++ http://www.oonumerics.org/blitz/ tvmet http://tvmet.sourceforge.net/ gsl http://www.gnu.org/software/gsl/ Eigen http://eigen.tuxfamily.org/index.php?title=Main_Page ROSでも使われている liboctave http://www.gnu.org/software/octave/ gnu oct
前々回のNMF(Non-negative Matrix Factorization)に続いて行列分解ネタです。言語処理学会全国大会のチュートリアル「推薦システム -機械学習の視点から-」で紹介されていた、確率的勾配降下法による行列分解を試してみました。チュートリアルの資料は公開されていないようでしたので、元論文の方のリンクを張っておきます。実際には同じ著者の別の論文を引用されてましたが、僕には下の論文の方が分かりやすかったのでこっちで。 MATRIX FACTORIZATION TECHNIQUES FOR RECOMMENDER SYSTEMS, Yehuda Koren, Rovert Bell, Chris Volinsky, IEEE Computer, Volume 42, Issue 8, p.30-37, 2009 作成したコードは以下に置いてあります。行列演算にEigenを
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く