Vowpal Wabbit を試してみようと思ったが,MacPorts で入れた gcc 4.5 (gcc-mp-4.5) からだと io.h から string.h を,example.h から pthread.h を,さらに loss_function.h から stdlib.h を追加で include する必要があった.さらに,boost の program_options が必要なので,MacPorts 経由で boost をインストールして,Makefile を編集し,漸くコンパイルに成功した.なのに,実行すると malloc: *** error for object 0xa03066d8 ... が連打.なんなの.valgrind で調べたら boost が Apple gcc-4.0 でコンパイルされているせいっぽい.Apple gcc で vw を再コンパイルしたら動い
This is a project started at Yahoo! Research and continuing at Microsoft Research to design a fast, scalable, useful learning algorithm. VW is the essence of speed in machine learning, able to learn from terafeature datasets with ease. Via parallel learning, it can exceed the throughput of any single machine network interface when doing linear learning, a first amongst learning algorithms. We prim
複数のオンライン学習のライブラリについて,線形学習と多項式カーネルの学習の詳細な実験結果(構文解析タスクと関係抽出タスク)を学習器の公開ページに追加した.今までの実験のまとめ的な内容になっている.オンライン学習は,訓練例を shuffling をするように統一して実験したら,ライブラリ間の速度差が少し縮まった.分類時間にはモデルの読み込み時間も入っているが,多項式カーネルではモデルの読み込みに時間がかかる分(と言っても100msec.とかだけど),特にテスト例数が少ない関係抽出タスクの実験セットで(線形学習に比べて)やや不利となっている. 幾つか分かったこと PA-I は averaging すると,繰り返し数を固定した場合の C の最適値が変わって,より少ないサポートベクタ数で同程度以上の分類精度が出せる.SVM よりサポートベクタ数が多くなりがちな PA-I にとっては良い特性だと思わ
今話題?の AROW (Adaptive Regularization Of Weight Vectors) の oll 向けの実装を見かけたので,Confidence-Weighted (CW) が Passive-Aggressive (PA)/LIBLINEAR に比べて全然ダメ (PA/LIBLINEAR: 91%, CW: 88%; Perceptron: 89%) だった例のタスク(学習/テストデータは公開中のコードに同梱してある)で,試してみた.パラメタを調整したが (c=100, 50, 10, 5, 1, 0.5, 0.1, 0.05, 0.01, 0.005, 0.001, 0.0005, I=1, 5, 10, 20, 50, 100),PA/LIBLINEAR -0.5% 程度の精度 (90.4%) しか出なかった.繰り返し回数を10回以下とかで固定すれば,AROW
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く