タグ

SVMに関するsatojkovicのブックマーク (12)

  • svm数式を一切使用しないSVMの話 by Rti 7743 on Prezi

    svm数式を一切使用しないSVMの話

    svm数式を一切使用しないSVMの話 by Rti 7743 on Prezi
    satojkovic
    satojkovic 2013/01/13
    イメージつかめた
  • SVM実践ガイド (A Practical Guide to Support Vector Classification) - シリコンの谷のゾンビ

    SVMツールで有名なLIBSVMの作者らがまとめた "A Practical Guide to Support Vector Classification" という良資料[1]の日語解説資料をまとめてみたので公開. SVM実践ガイド (A Practical Guide to Support Vector Classification) View more presentations from sleepy_yoshi 元資料はこちら 資料作成のきっかけは,まわりの人に「SVMとかいう手法使ったんだけど,機械学習よくわからなくてさ」という感じで相談を受けて「カーネルは何使ってるの?」「素性のスケーリングはした?」「Cパラメータは調整した?」というようなことを聞くのだけれど,「???」というやりとりにうんざりしたから. その都度,Cパラメータというものがありまして〜,カーネルというものが

    SVM実践ガイド (A Practical Guide to Support Vector Classification) - シリコンの谷のゾンビ
  • ソフトマージンSVM - 人工知能に関する断創録

    前回(2010/5/2)のハードマージンSVMでは、データに重なりがある場合、下のようにちゃんと分類境界を求められませんでした。今回は、重なりのあるクラス分布に対応できるように拡張してみます。このようなSVMはハードマージンSVMに対してソフトマージンSVMと呼ばれます。別名としてC-SVMとも呼ばれるようです。 PRMLの7.1.1にあるように、データの誤分類を許すようにSVMを修正します。ハードマージンSVMでは、データ点がマージン内(-1 < y < 1)に絶対に入らないことを前提にしていましたが、ソフトマージンSVMでは「入ってしまったものは仕方ない、だがペナルティを与える!」と少し条件を緩めます。 まず、スラック変数ζ(ゼータ)をデータごとに導入します。スラック変数は、データが正しく分類されかつマージン境界上または外側にある場合は0、正しく分類されているがマージン内に侵入してしま

    ソフトマージンSVM - 人工知能に関する断創録
  • サポートベクターマシン (SVM)

    サポートベクターマシンについて,情報源に関するメモを纏めておきます。 ▼ 参考書 Marahon Match用に次の参考書籍を購入しました。 サポートベクターマシン入門 理論から実践(インプリ)まで一通り書かれていて良いだと思います。機械学習の基礎となるところから書かれていますので,機械学習の入門書としても良いように思います。 また,各章の最後に「さらなる文献と話題」の節が設けられ,参考文献の紹介が充実しています。 ▼ Web公開の資料 サポートベクターマシンは旬な技術なようで,数多くの資料が公開されています。(特に大学の研究室での公開資料が多いですね) 今回は,以下の資料を参考にさせて頂きました。 痛快!サポートベクトルマシン (CiNii)SVMの2次計画問題に関する解法の考察 (東京理科大学)Support Vector Machine を用いたカット点検出とそのシステムの構築 (

    サポートベクターマシン (SVM)
  • サポートベクターマシン

    サポートベクターマシン(Support Vector Machine:SVM)は2クラス分類識別器の一種ある。 その大きな特徴として次の三つがあげられる。 マージン最大化という方針で識別平面を決定するので高い汎化能力が期待できる。 学習がラグランジュ未定乗数法により二次計画問題に帰着され、局所最適解が必ず広域最適解となる。 識別対象の空間に対する事前知識を反映した特徴空間を定義することで、その特徴空間上で線形識別を行える。 さらにその特徴空間上での内積を表したカーネルと呼ばれる関数を定義することにより、明示的に特徴空間への 変換を示す必要がない。 以下に簡単に説明していく。 1.マージン最大の識別平面 図1のように2次元ベクトルで表される空間上にあるパターンを線形に識別する問題を考えてみる。 ○と □はそれぞれ別のクラスに属するものとする。 一般にパターン認識の問題では、パターンをどちらの

    satojkovic
    satojkovic 2010/04/06
    SVMの特徴を簡単に解説。わかりやすい。
  • Support Vector Machine

    人間には卓越した学習能力が備わっている.人間は目で見たり,耳で聞いたものが何であるかをいとも簡単に認識できる.また,未知の環境に適応する能力も優れている.それに対し,コンピュータは,与えられた指示(プログラム)どおりに高速に計算を行う能力においては優れているが,学習能力という点においては,人間とは比較にならない. そこで,人間のような学習能力をもった機械(モデル)を作るための学習理論が発達してきた.その代表的な成果の1つとして,多層パーセプトロンが挙げられる.多層パーセプトロンは1980年代に開発され,これまで多方面に応用されてきた.しかし,望ましくない局所最適解への収束,中間層の素子数の選択など,いくつかの問題点がある. サポートベクターマシン(Support Vector Machine:SVM) は,このような問題を解決した学習機械として知られている.サポートベクターマシンとは,1

    satojkovic
    satojkovic 2010/03/25
    概略
  • SVMソフトウェアの比較 - tsubosakaの日記

    オープンソースのSVMソフトウェアの基デフォルトの設定で比較などをしてみた。 利用データはLIBSVM Data: Classification, Regression, and Multi-labelのa9aとnews20.binaryを利用した。 データセットの詳細は以下のようになっている データセット名 訓練データ数 テストデータ数 データの次元 a9a 32561 16281 123 news20.binary 15000 4996 1355199 なお、news20.binaryでの訓練データとテストデータの作成については id:n_shuyoさんの記事を参考にした。 比較に用いたソフトウェアは以下の5つ LIBSVM リンク SVM-Light リンク TinySVM リンク SVM-perf リンク LIBLINEAR リンク 測定結果は以下のようになった。パラメータの設定

    SVMソフトウェアの比較 - tsubosakaの日記
  • やる夫で学ぶSVM with R

    17. SVM とは Support Vector Machine の略称です。 データ群を 2 クラスに分類する超平 面を引くことによってデータを分類 してしまおう という手法です。 具体例を挙げてみましょう。

    やる夫で学ぶSVM with R
  • 年末年始は「集合知プログラミング」でサポートベクターマシン(LIBSVM)にチャレンジ | BoxHeadRoom

    [pukiwiki] *[[Wiiリモコンで出前をとる――2009年春に「出前チャンネル」スタート:http://plusd.itmedia.co.jp/games/articles/0812/26/news078.html]] これ、うちと同様な田舎だと、「近所に、出前してくれる店がありません」って出る家続出すると思う(汗 *[[米・高校、試験用紙に広告掲載 教育予算削減で:http://mainichi.jp/life/weekly/news/20081222wek00m040013000c.html?inb=rs]] 「グッジョブ」と言うべきか「これはひどい」とdisるべきかよくわからない。 —- *コンピュータはダジャレの神になれるか? 昨日、映画の勉強会にて、つボイノリオは朝4時に起きてダジャレを真剣に考える、という話をうかがいまして。 で、これはコンピュータにはムリだろう~~~

  • ところでサポートベクターマシンって何なの? - きしだのHatena

    最近、機械学習とか、そのアルゴリズムのひとつであるサポートベクターマシンとかやってるわけですが、そもそも機械学習ってなんなんでしょか? 機械学習ってのは、なんとなく与えられた点の分類から、新たに与えられた点の分類を推測するのですが、ようするに、点が与えられたときにそこから分類の領域を推測しておいて、新たな点がきたときにはどの領域に入るかを判別するのです。 ニューラルネットワークは、名前にニューロンとかついてて、とてもステキな響きがするのですが、あれは関数のあてはめを行っているのです。そうやって関数をあてはめることで、領域の境界面を求めます。 NN法は、学習とかせず、一番近いデータが同じ分類になるはずという戦略でやってます。 サポートベクターマシンも考え方としてはNN法と同じで、新しい点がやってくると、学習したそれぞれの点までの近さを計算して、一番ちかい分類を求めます。そのため、学習データが

  • [メモ] サポートベクターマシン(SVM) - 机上の空論

    サポートベクターマシン(以下 SVM) とは ・ニューラルネットワークの一種 ・教師ありクラスタリング SVM の基的な考え方 ・元々2クラスの線形分離手法として提案される ・単層パーセプトロンに似ているが、SVM はマージン最大化という手法をとっているのがポイント。 ・マージン最大化とは、超平面と学習データの隙間となるマージンをなるべく大きく取ろうというもの。 (ここでいう超平面とは、2つのクラスにぶった切る平面のこと) ・ちなみに超平面と、ちょうどマージンの分だけ離れている学習データをサポートベクトルという。 ・このマージン最大化という考えを取り入れることによって、テストデータの識別精度を高めている。 SVM の発展 ・線形分離不可能な問題への対応 - ソフトマージン(学習データが多少マージンにくい込んだり、反するクラスの空間にくい込んだりしても許す)で対応

  • Support Vector Machine

    最近よく巷で耳にするモノ. SVM, Support Vector Machine, さぽーとべくたーましん. これっていったい,どんなもんなんでしょう. なにやら便利そうなモノらしいので,ちょいと調べて要点をまとめてみようかな,なんて. でも,ただまとめただけだとそのへんの記事を読むのとなんにも変わらないので, コーディングするために必要な知識を中心にまとめてみることにします.

  • 1