タグ

SVMに関するnyamappのブックマーク (3)

  • 機械学習超入門IV 〜SVM(サポートベクターマシン)だって30分で作れちゃう☆〜 - EchizenBlog-Zwei

    ニーズがあるのかさっぱりわからない機械学習超入門だけどひっそり続けていきたい。 前回は識別関数の基礎であるパーセプトロンの簡単な説明とPerlによる実装を解説した。実はこの時点でかの有名なSVM(Support Vector Machine、サポートベクターマシン)もほぼ完成していたのだ!というわけで今回はSVMをPerlで作ってしまうお話。 参考: これからはじめる人のための機械学習の教科書まとめ - EchizenBlog-Zwei 機械学習超入門 〜そろそろナイーブベイズについてひとこと言っておくか〜 - EchizenBlog-Zwei 機械学習超入門II 〜Gmailの優先トレイでも使っているPA法を30分で習得しよう!〜 - EchizenBlog-Zwei 機械学習超入門III 〜機械学習の基礎、パーセプトロンを30分で作って学ぶ〜 - EchizenBlog-Zwei さて

    機械学習超入門IV 〜SVM(サポートベクターマシン)だって30分で作れちゃう☆〜 - EchizenBlog-Zwei
  • Microsoft PowerPoint - S5-SVM.ppt

    5. サポートベクターマシン 5.1 マージン最大化の考え方 5.2 線形分離可能な学習データによるマージン最大化 5.3 線形分離不可能な学習データによるマージン最大化 5.4 サポートベクターマシン 5.1 線形分離可能な場合におけるマージン最大化 I II 次の学習データが与えられたとする。 ( y1 , x1 ), ( y2 , x 2 ),L , ( yl , xl ), x ∈ R n , y ∈ {−1,1} ただし, ⎧ 1 Lカテゴリ I y=⎨ ⎩− 1 Lカテゴリ II 2 パタン理解:サポートベクタマシン 1 パタン理解:サポートベクタマシン マージン最大化 マージン最大化 I I c c II φ x II φ x カテゴリ I とカテゴリ II は,以下の超平面で分離可能 であったとする。 ( x * φ) = c, φ =1

  • Microsoft Word - SVM.doc

    [ 連載 ] フリーソフトによるデータ解析・マイニング第 31 回 R とカーネル法・サポートベクターマシン 1. カーネル法とは 図 1 に示すように、非線形データ構造を線形構造に変換することができれば、線形データ解 析手法で非線形データを容易に扱うことができる。 図1 変換による線形化のイメージ デ ータを変換することで、非線形構造を線形構造に変換することが可能である。例えば、図 2(a)に示す 2 次元平面座標系( x, y )上の 4 つの点 A1(1,1)、A2(1,-1)、A3(-1,-1)、A4(-1,1)を 考えよう。仮に A1 と A3 がひとつのクラス、A2 と A4 がひとつのクラスだとすると、平面上で クラスの境界線を一の直線で引くことができない。しかし、新しい変数 z = xy を導入し、2 次 元 平 面 ( x, y )上 の 4 つ の 点

  • 1