This domain is registered at Dynadot.com. Website coming soon.
NIPS 2009のonline papersがすでにダウンロードできるように*1なってたのでタイトルを眺めていたらGPUでLDAを並列化するという論文があって読んだので少し紹介してみる。 まず、彼らの論文[1]ではLDAの推論アルゴリズムのうち、Collapsed Gibbs sampling(CGS)とCollapsed Variational Bayes(CVB)の2つに関して並列化を試みているがCollapsed Gibbs samplingの方に関してのみ紹介する。また、彼らの論文ではGPGPUの統合開発環境としてCUDAを用いている。 LDAについて LDAは論文[2]で提案された、文章生成モデルでトピック分析などに広く用いられている。 モデルの推論アルゴリズムとしては変分ベイズ[1]、ギブスサンプリング[4]、EP、collapsed 変分ベイズ[5]などが知られている。 こ
【C.M.ビショップ「パターン認識と機械学習(PRML)」読書会の情報はこちら】 (とりあえずハブエントリとして立てます。後でもう少し補足) PRML(パターン認識と機械学習) Hackathon #1 〜PRMLは新CAPTCHA破りの夢を見るか?〜 に曳舟まで行ってきました。というか主催してきました。 実際に動くコードを書いて、PRMLを読んで得た知識を血肉化しよう。 C.M.ビショップ「パターン認識と機械学習(PRML)」読書会のスピンオフ企画。 PRML読書会に参加していない方の参加も歓迎します。 ということなのですが、(釣りっぽいサブタイトルのせいか)普段読書会に来られていない方々の参加も多く、朝9時から夜9時まで豪華なメンバー(総勢19名)で12時間、 みなさん黙々と実装を続けていました。 参加者のみなさま(発表順): ※もうちょっとちゃんと書くつもり ※会場到着順データ(時刻
最適化 † コンパイル時に実行ファイルを最適化することにより、実行ファイルのサイズを小さくしたり、実行の速度を上げることができる。 例) g++ -O3 test.cpp 最適化オプションにはいくつか種類がある。-O1 -O2 -O3 数字が大きい程,コンパイルには時間がかかるが実行速度が上がる。 ↑ 前置インクリメント † forでカウンタをインクリメントするだけなら後置インクリメント(i++)でも前置インクリメント(++i)でも結果は同じになる。が、i++だと前の値を記憶してからプラスする(一時オブジェクトを作るという無駄が発生する)ので、++iのほうがいいらしい。特にイテレータのとき。 for(vector<int>::iterator it=v.begin(); it!=v.end(); ++it){ //中身 } ↑ for, whileの継続条件 † forやwhileを回す
(as of ) Introduction Google glog is a library that implements application-level logging. This library provides logging APIs based on C++-style streams and various helper macros. You can log a message by simply streaming things to LOG(<a particular severity level>), e.g. #include <glog/logging.h> int main(int argc, char* argv[]) { // Initialize Google's logging library. google::InitGoogleLogging(
メディア関係者向けお問い合わせ先 メールでのお問い合わせ: pr-jp@google.com メディア関係者以外からのお問い合わせにはお答えいたしかねます。 その他すべてのお問い合わせにつきましては、ヘルプセンターをご覧ください。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く