タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

SVMとカーネル法に関するxnightsのブックマーク (2)

  • Microsoft PowerPoint - S5-SVM.ppt

    5. サポートベクターマシン 5.1 マージン最大化の考え方 5.2 線形分離可能な学習データによるマージン最大化 5.3 線形分離不可能な学習データによるマージン最大化 5.4 サポートベクターマシン 5.1 線形分離可能な場合におけるマージン最大化 I II 次の学習データが与えられたとする。 ( y1 , x1 ), ( y2 , x 2 ),L , ( yl , xl ), x ∈ R n , y ∈ {−1,1} ただし, ⎧ 1 Lカテゴリ I y=⎨ ⎩− 1 Lカテゴリ II 2 パタン理解:サポートベクタマシン 1 パタン理解:サポートベクタマシン マージン最大化 マージン最大化 I I c c II φ x II φ x カテゴリ I とカテゴリ II は,以下の超平面で分離可能 であったとする。 ( x * φ) = c, φ =1

  • Microsoft Word - SVM.doc

    [ 連載 ] フリーソフトによるデータ解析・マイニング第 31 回 R とカーネル法・サポートベクターマシン 1. カーネル法とは 図 1 に示すように、非線形データ構造を線形構造に変換することができれば、線形データ解 析手法で非線形データを容易に扱うことができる。 図1 変換による線形化のイメージ デ ータを変換することで、非線形構造を線形構造に変換することが可能である。例えば、図 2(a)に示す 2 次元平面座標系( x, y )上の 4 つの点 A1(1,1)、A2(1,-1)、A3(-1,-1)、A4(-1,1)を 考えよう。仮に A1 と A3 がひとつのクラス、A2 と A4 がひとつのクラスだとすると、平面上で クラスの境界線を一の直線で引くことができない。しかし、新しい変数 z = xy を導入し、2 次 元 平 面 ( x, y )上 の 4 つ の 点

  • 1