タグ

カーネルとSVMに関するsimakawaのブックマーク (4)

  • サポートベクターマシンとは[カーネル法による非線形サポートベクターマシン] - verum ipsum factum

    ここからはこれまで述べてきたサポートベクターマシンにカーネル法を適用することにより非線形サポートベクターマシンへ拡張することを考えます。 カーネル法の導入 これまで述べてきたサポートベクターマシーン分離面が超平面であることを前提としていました。しかし、実際の問題では正例データと負例データの境界が超平面であるよりは、複雑に入り組んだ超曲面である可能性が高いことが想定されます。 このようなデータに、これまで述べてきたようなクラス境界を超平面とするサポートベクターマシーンを適用しても、高い分類性能を期待することは難しそうです。 たとえば下図のような単純なケースでさえ正例データ(○)と負例データ(×)を分ける直線は存在しないため、100%の分類性能は達成できません。 しかし、このようなデータでも線形分離が可能になるような別の空間へ変換できれば、変換先の空間ではクラス境界が超平面になるのでサポートベ

    サポートベクターマシンとは[カーネル法による非線形サポートベクターマシン] - verum ipsum factum
  • カーネル法

    カーネル法 線形回帰、識別からカーネル関数へ y ( w ) = wT φ (x ) という一般化した線形回帰式に対して 2 1N λT T J ( w ) = ∑ {w φ ( x n ) − tn } + w w 2 n =1 2 ただし ⎛ φ1 ( x n ) ⎞ ⎜ ⎟ φ (x n ) = ⎜ M ⎟ ⎜ φ (x ) ⎟ ⎝M n⎠ tnはw T φ ( x n )がとるべき値。 ( Mは教師データの次元数 , Nは教師データ数) という正規化項つきの2乗誤差を考えるとき、 φ (x )についてもう少し組織的に考えてみよう。 カーネル関数と呼ばれる k (φ (x ), φ ( y )) で回帰や識別を考え直す ことにより、より効率の良い方法が見えてくる。 双対表現 まず、正規化項つきの2乗誤差関数を考える。 J ( w) = 1 2 ∑ {w φ (x

  • SVM(Support Vector Machine)

    1.SVM(Support Vector Machine) SVM(Support Vector Machine)は,1960年代に Vapnik によって提案された二値分類のための教師ありアルゴリズムである[1]。 1990年代になってカーネル学習法と組み合わせた非線形識別手法として脚光を浴びた。 そういう点で、ニューラルネットワークよりも誕生が新しい技法と言える。 図1では2次元データを平面上にプロットしたものである。○と●の2種類がある。 例えば、ある花の2品種について、花びらの長さと幅をプロットしたようなものである。 斜めに引いた実線は二つの品種を分ける境界線である。 現在プロットしているデータが学習データに当たる。 観測データに関しては、この境界線より左上側に位置するようならば、○(正)に分類し、 そうでなければ●(負)に分類するものである。 境界線の求め方を点線で示している。

    SVM(Support Vector Machine)
  • [チュートリアル講演] カーネルマシン

    次へ: はじめに [チュートリアル講演] カーネルマシン 赤穂 昭太郎1 Shotaro Akaho s.akaho@aist.go.jp 概要: サポートベクタマシン (SVM) に代表されるカーネルを用いた学習機械について解説する. これらにほぼ共通しているのは,基的に線形の学習機械の延長線上にあり, ローカルミニマムの問題などが少ないこと,それから,正則化を行うことにより 高い記述能力と汎化能力を両立していることが特長である. キーワード: サポートベクタマシン,正則化,スパースネス,数理計画法, 汎化 Kernel machines such as the support vector machine are reviewed. Most of them are not suffered from the local optimum problem, because they a

  • 1