新たな、よりよい時代を切り拓く「誰か」になる そのための大学院として、“つくばの社工”には社会工学専攻があります。 科学の街・つくばで、未来構想のための工学を学んでみませんか?
新たな、よりよい時代を切り拓く「誰か」になる そのための大学院として、“つくばの社工”には社会工学専攻があります。 科学の街・つくばで、未来構想のための工学を学んでみませんか?
名称 Algorithm::SVMLight - SVMLight 機械学習パッケージへの Perl インタフェース 概要 use Algorithm::SVMLight; my $s = new Algorithm::SVMLight; $s->add_instance (attributes => {foo => 1, bar => 1, baz => 3}, label => 1); $s->add_instance (attributes => {foo => 2, blurp => 1}, label => -1); ... いくつかのインスタンスを繰り返した後で $s->train; # 未見のインスタンスの結果を my $result = $s->predict (attributes => {bar => 3, blurp => 2}); 説明 本モジュールは Thorst
インストール † $ mkdir svm_light; cd svm_light $ wget http://download.joachims.org/svm_light/current/svm_light.tar.gz $ tar zxf svm_light.tar.gz $ make ↑ 仕様など † svm_learn $ ./svm_learn [options] example_file model_file example_file トレーニングデータ (入力) <line> .=. <target> <feature>:<value> <feature>:<value> ... <feature>:<value> # <info> <target> .=. +1 | -1 | 0 | <float> <feature> .=. <integer> | "qid" <valu
サポートベクターマシン 赤穂昭太郎 産業技術総合研究所 2006.7.6~7 統数研公開講座 「カーネル法の最前線―SVM, 非線形データ解析, 構造化データ―」 目次 1. サポートベクターマシン(SVM)とは 2. SVMの仲間たち 3. 汎化能力の評価 4. 学習アルゴリズム 5. カーネル設計の基本 1.サポートベクターマシンとは? • サポートベクターマシン= 「線形モデル+高次元写像+正則化」の一つ (ほかのカーネル法と基本的に共通) • 計算量を少なくするいくつかの工夫 – 凸2次計画法 – スパース表現 – カーネルトリック • ローカルミニマムの問題がない 識別問題 • 入力 x を二つのクラスに分類する関数 を学習する (1クラスあるいは3クラス以上の場合は後で考える) 例: 文字認識、遺伝子解析、データマイニング、 spam filter • 学習サンプルから学習 •
In machine learning, support vector machines (SVMs, also support vector networks[1]) are supervised max-margin models with associated learning algorithms that analyze data for classification and regression analysis. Developed at AT&T Bell Laboratories by Vladimir Vapnik with colleagues (Boser et al., 1992, Guyon et al., 1993, Cortes and Vapnik, 1995,[1] Vapnik et al., 1997[2]) SVMs are one of the
svm presentation announced at Cyberagent INC in Japan on 04 June 2010
SVMの 2次計画問題に関する解法の考察 東京理科大学工学部経営工学科 沼田研究室 4400079 戸田健一 卒業研究発表 1 発表構成 1. はじめに 2. クラス判別とSVM 2-1. クラス判別問題 2-2. サポートベクターマシン 2-3. 線形分離不可能な場合のSVM 2-4. 非線形SVM 3. 4. 5. 6. 7. Sequential Minimal Optimization(SMO) 2段階SMO 実験 実験結果,考察 まとめ 参考文献 2 1.はじめに パターン認識問題におけるクラス判別手法: サポートベクターマシン(SVM)[1],抄録[3] SVM:2次計画問題を解く →データが多くなるにつれて計算量が非常に多くなる Sequential Minimal Optimization (SMO) [2],[3],抄録[1],[2]: SVMによる2次計画問
Support Vector Machine • C. Cortes and V. Vapnik, Support-Vector Networks, Machine Learning, 20(3):273-297, September 1995 • Vladimir N. Vapnik. The Nature of Statistical Learning Theory. Springer, New York, 1995 http://www.kernel-machines.org/ java applet http://www.csie.ntu.edu.tw/~cjlin/libsvm/ Bio-informatics z Knowledge-based analysis of microarray gene expression data by using support vector
SVMは2次最適化問題になるので、それを勉強してみてはということだったのですが、SVMに特化したSMO(Sequential Minimal Optimisation)アルゴリズムがあるということなので、そちらをやってみました。 SVMの制約条件に というのがあって、yiは正例なら1、負例なら-1となる値なのですが、そうすると、ようするにこの条件は、正例のαの合計と負例のαの合計が等しくなるということを示してるわけです。 この条件をつかうと、ひとつαを操作したときには、ほかのαを操作して、正例と負例のバランスを取る必要があることがわかります。 で、このことを利用して、同時に2つのαを操作することにすると、解析的に一つ目のαが求められて、2つ目のαはそこから足し算引き算で求められてお徳かも、というのがSMOの考え方です。 問題は、いかに効率よく更新する2つのαを決めるかということになります。
教師あり学習 † 各手法の詳細やパラメータの変更に関しては、Statistics Toolbox ドキュメント、日本語の解説(最新バージョンには未対応)や、helpコマンド、editコマンドが参考になります。 ↑ 決定木 † Statistics Toolbox が提供している機能です。 参考(関数) 参考(詳細) ウィキペディア「決定木」のゴルフの表 を使って説明します。*1 まずは入力値データ(独立変数)と、結果データ(従属変数)を宣言します。 %独立変数(天気、気温、湿度、風の強さ) meas = [ 1 29 85 1 1 27 90 2 2 28 78 1 3 21 96 1 3 20 80 1 3 18 70 2 2 18 65 2 1 22 95 1 1 21 70 1 3 24 80 1 1 24 70 2 2 22 90 2 2 27 75 1 3 22 80 2 ]
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く