タグ

SVMに関するthorikawaのブックマーク (18)

  • SVM実践ガイド (A Practical Guide to Support Vector Classification) - シリコンの谷のゾンビ

    SVMツールで有名なLIBSVMの作者らがまとめた "A Practical Guide to Support Vector Classification" という良資料[1]の日語解説資料をまとめてみたので公開. SVM実践ガイド (A Practical Guide to Support Vector Classification) View more presentations from sleepy_yoshi 元資料はこちら 資料作成のきっかけは,まわりの人に「SVMとかいう手法使ったんだけど,機械学習よくわからなくてさ」という感じで相談を受けて「カーネルは何使ってるの?」「素性のスケーリングはした?」「Cパラメータは調整した?」というようなことを聞くのだけれど,「???」というやりとりにうんざりしたから. その都度,Cパラメータというものがありまして〜,カーネルというものが

    SVM実践ガイド (A Practical Guide to Support Vector Classification) - シリコンの谷のゾンビ
  • SVMにおける損失と正則化 - 射撃しつつ前転 改

    前に書いたSVMの記事で、「L1とかL2というのは間違えたときのペナルティをどう定義するかを意味しており」と書いていたが、L1とかL2って正則化項の話なんじゃないの、と疑問に思った。1ヶ月ほど時間をおいてのセルフツッコミである。確認しようとしてカーネル多変量解析を読むと、やはり正則化項についてはL1とL2の両方の説明が書いてあるが、損失に関しては普通のHinge Loss(=L1 Loss)しか書いてない。 と言う訳で、ああ、間違えちゃったなぁ、と暗澹たる気持ちで"A dual coordinate descent method for large-scale linear SVM"を読み直してみたところ、やっぱりL1-SVMというのは損失が普通のHinge Lossで、L2-SVMというのはHinge Lossの2乗を損失とすると書いてあった。両方とも正則化項についてはL2正則化を使って

    SVMにおける損失と正則化 - 射撃しつつ前転 改
  • サポートベクターマシン

    サポートベクターマシン 赤穂昭太郎 産業技術総合研究所 2006.7.6~7 統数研公開講座 「カーネル法の最前線―SVM, 非線形データ解析, 構造化データ―」 目次 1. サポートベクターマシン(SVM)とは 2. SVMの仲間たち 3. 汎化能力の評価 4. 学習アルゴリズム 5. カーネル設計の基 1.サポートベクターマシンとは? • サポートベクターマシン= 「線形モデル+高次元写像+正則化」の一つ (ほかのカーネル法と基的に共通) • 計算量を少なくするいくつかの工夫 – 凸2次計画法 – スパース表現 – カーネルトリック • ローカルミニマムの問題がない 識別問題 • 入力 x を二つのクラスに分類する関数 を学習する (1クラスあるいは3クラス以上の場合は後で考える) 例: 文字認識、遺伝子解析、データマイニング、 spam filter • 学習サンプルから学習 •

  • サポートベクトルマシンによる パターン認識手法の研究

    サポートベクターマシン によるパターン認識 高知大学 理学部 数理情報科学科 4回生 田研究室 98ー数理019 緒方浩二 背景 � サポートベクターマシン(SVM)とはVapnik 等によって提案された識別学習 � 今、注目を集めている新しいパターン認識 手法である � パターン認識とは、システムに学習機能を 組み込んだり、最適なパラメータを求めた りする際に必要な技術である 発表の流れ 1.パターン認識 2.サポートベクトルマシン(SVM) 3.線形SVM 4.非線形SVM 5.数値解法 6.まとめ パターン認識 ある 次元特徴空間のベクトルと、分類さ れるべきクラスとの対応付けをすること :特徴ベクトル :クラス SVMの対象は2クラスの識別問題 i n i y R x ↔ ∈ n i x i y パターン認識の具体例 2 x 1 x 図-1 2種類のキノコの特徴ベクトル(青丸およ

  • SVMにおける2次計画問題の解法に対する考察

    SVMの 2次計画問題に関する解法の考察 東京理科大学工学部経営工学科 沼田研究室 4400079 戸田健一 卒業研究発表 1 発表構成 1. はじめに 2. クラス判別とSVM 2-1. クラス判別問題 2-2. サポートベクターマシン 2-3. 線形分離不可能な場合のSVM 2-4. 非線形SVM 3. 4. 5. 6. 7. Sequential Minimal Optimization(SMO) 2段階SMO 実験 実験結果,考察 まとめ 参考文献 2 1.はじめに パターン認識問題におけるクラス判別手法: サポートベクターマシン(SVM)[1],抄録[3] SVM:2次計画問題を解く →データが多くなるにつれて計算量が非常に多くなる Sequential Minimal Optimization (SMO) [2],[3],抄録[1],[2]: SVMによる2次計画問

  • LIBSVMの使いかたまとめ - k.kinukawaの日記

    LIBSVMとは LIBSVMはChih-Chung Chang とChih-Jen Lin によって作成された、サポートベクタマシンライブラリである。 現在はバージョン2.85がリリースされている。 LIBSVM は、サポートベクタ分類器(C-SVC、nu-SVC)、回帰分析(epsilon-SVR、nu-SVR)、分布評価(1クラスSVM)のための統合ソフトである。 マルチクラス分類もサポートしている。 様々なインターフェースが用意されているため、ライブラリとユーザープログラムを簡単に統合することが可能である。 以下のような機能、特徴を含んでいる。 異なったSVM の計算式が用意されている. 効率的なマルチクラス分類ができる. モデル選択のためのクロスバリデーション*1. 可能性予測. 偏ったデータのための、重みつきSVM. C++Java のソースコード. SVM 分類と回帰分析

  • LIBSVM -- A Library for Support Vector Machines

    Chih-Chung Chang and Chih-Jen Lin Version 3.33 released on July 11, 2024. We fix some minor bugs. Version 3.31 released on February 28, 2023. Probabilistic outputs for one-class SVM are now supported. Version 3.25 released on April 14, 2021. Installing the Python interface through PyPI is supported > pip install -U libsvm-official The python directory is re-organized so >>> from libsvm.svmutil imp

  • https://www.ism.ac.jp/~fukumizu/ISM_lecture_2006/index.html

  • カーネル多変量解析 - DO++

    タイトルのを買って読んでみた. カーネル多変量解析―非線形データ解析の新しい展開 (シリーズ確率と情報の科学) サポートページ 様々な解説記事で定評のある赤穂先生によるカーネル法による解析についての。日語で読めるカーネルに関するとしては、導入部の丁寧さと、そのあとの展開と深さ、最新の話まで抑えている点でお勧めだと思います。カーネルの性質、汎化性能とかはもちろんのこと、例えばカーネルk-means, スぺクトラルクラスタリング、(ちょっとだけ)Gaussian Process, Leave-one-outの閉じた式、L1正則化など、他の和書ではあまり見たことない内容が多く、中身が濃いです。ただ、これらは、どれもさーっとかいて気持ちがわかって、詳しくは参考文献を見るという感じです。まぁ、それだけ詰め込んでいるから仕方ないですね。 -- カーネル法とは、なんらかの対象を解析するときに、対

    カーネル多変量解析 - DO++
  • Core Vector Machine

    LibCVM Toolkit Version: 2.02 (alpha) Ivor W. Tsang, Andras Kocsor , James T. Kwok Department of Computer Science and Engineering The Hong Kong University of Science and Technology Last Update: March 5, 2008

    thorikawa
    thorikawa 2009/11/14
    高速なSVM
  • しかしSVMも最近は速いらしい - 射撃しつつ前転 改

    Complement Naive BayesがSVMより速いよーと主張していたので、SVMもなんか最近は速くなってるらしいよ、という事を紹介してみたい。近年はSVMなどの学習を高速に行うという提案が行われており、実装が公開されているものもある。その中の一つにliblinearという機械学習ライブラリがある。ライブラリ名から推測できる通り、liblinearではカーネルを使うことが出来ない。しかし、その分速度が速く、大規模データに適用できるという利点がある。 liblinearを作っているのはlibsvmと同じ研究グループで、Chih-Jen Linがプロジェクトリーダーであるようだ。libsvmはかなり有名なライブラリで、liblinearにはそういった意味で安心感がある。(liblinearの方は公開されてしばらくは割とバグがあったらしいけど。) liblinearにはL1-SVM, L

    しかしSVMも最近は速いらしい - 射撃しつつ前転 改
  • SVMの学習用アルゴリズムSMOを実装してみる - きしだのHatena

    SVMは2次最適化問題になるので、それを勉強してみてはということだったのですが、SVMに特化したSMO(Sequential Minimal Optimisation)アルゴリズムがあるということなので、そちらをやってみました。 SVMの制約条件に というのがあって、yiは正例なら1、負例なら-1となる値なのですが、そうすると、ようするにこの条件は、正例のαの合計と負例のαの合計が等しくなるということを示してるわけです。 この条件をつかうと、ひとつαを操作したときには、ほかのαを操作して、正例と負例のバランスを取る必要があることがわかります。 で、このことを利用して、同時に2つのαを操作することにすると、解析的に一つ目のαが求められて、2つ目のαはそこから足し算引き算で求められてお徳かも、というのがSMOの考え方です。 問題は、いかに効率よく更新する2つのαを決めるかということになります。

    thorikawa
    thorikawa 2009/11/11
    SMO
  • SVMコード

    SVM(SMO法)のコードを載せておきます。理論についてはこちらをどうぞ。 2011.9.18追記: ここでも書いたのですが,引数 target は -1 or 1 と設定頂く方が正しいはずです。(理論的にも正しいはず) 初出時は簡単なテストデータで動作確認を行っていたためか 0 or 1 でも動作確認が取れていたよう記憶しています。格的に学習させる場合には 0 or 1 では学習が収束しませんでした。 大まかな流れ SMOではラグランジュ未定乗数が教師データの数量分作成されます。これらを下記の処理フローで更新していきます。 ラグランジュ乗数の更新評価は1つずつ順番に行い,全ての評価を終えたところで実際に更新が行われたかをチェックします。1件でも更新したものがあれば,更新の作業を続けていきます。 下記のコードでは,個々のラグランジュ未定乗数の更新チェックはexaminUpdate()で行

    SVMコード
    thorikawa
    thorikawa 2009/11/05
    SMO法のコード
  • サポートベクターマシン (SVM)

    サポートベクターマシンについて,情報源に関するメモを纏めておきます。 ▼ 参考書 Marahon Match用に次の参考書籍を購入しました。 サポートベクターマシン入門 理論から実践(インプリ)まで一通り書かれていて良いだと思います。機械学習の基礎となるところから書かれていますので,機械学習の入門書としても良いように思います。 また,各章の最後に「さらなる文献と話題」の節が設けられ,参考文献の紹介が充実しています。 ▼ Web公開の資料 サポートベクターマシンは旬な技術なようで,数多くの資料が公開されています。(特に大学の研究室での公開資料が多いですね) 今回は,以下の資料を参考にさせて頂きました。 痛快!サポートベクトルマシン (CiNii)SVMの2次計画問題に関する解法の考察 (東京理科大学)Support Vector Machine を用いたカット点検出とそのシステムの構築 (

    サポートベクターマシン (SVM)
  • Fast Training of Support Vector Machines Using Sequential Minimal Optimization - Microsoft Research

    thorikawa
    thorikawa 2009/11/05
    SMO
  • 痛快!サポートベクトルマシン -古くて新しいパターン認識手法- | CiNii Research

    JaLC IRDB Crossref DataCite NDL NDL-Digital RUDA JDCat NINJAL CiNii Articles CiNii Books CiNii Dissertations DBpedia Nikkei BP KAKEN Integbio MDR PubMed LSDB Archive 極地研ADS 極地研学術DB 公共データカタログ ムーンショット型研究開発事業

  • Support Vector Machine

    最近よく巷で耳にするモノ. SVM, Support Vector Machine, さぽーとべくたーましん. これっていったい,どんなもんなんでしょう. なにやら便利そうなモノらしいので,ちょいと調べて要点をまとめてみようかな,なんて. でも,ただまとめただけだとそのへんの記事を読むのとなんにも変わらないので, コーディングするために必要な知識を中心にまとめてみることにします.

  • Convex Optimization – Boyd and Vandenberghe

    A MOOC on convex optimization, CVX101, was run from 1/21/14 to 3/14/14. If you register for it, you can access all the course materials. More material can be found at the web sites for EE364A (Stanford) or EE236B (UCLA), and our own web pages. Source code for almost all examples and figures in part 2 of the book is available in CVX (in the examples directory), in CVXOPT (in the book examples direc

  • 1