タグ

SVMに関するsimakawaのブックマーク (7)

  • ヒンジ関数の意味、損失関数として使えることの大雑把な説明 - 具体例で学ぶ数学

    図のように、ある部分までは $0$ で、そこから一定の割合で増加していくような関数をヒンジ関数と言います。 例えば、赤いグラフの関数を式で表すと、 $f(x)=\begin{cases}0&(x\leq a)\\x-a&(x>a)\end{cases}$ のようになります。 2つの式をまとめて $f(x)=\max(0,x-a)$ と書くこともできます。 別の例として、青いグラフの関数を式で表すと、 $f(x)=\begin{cases}b-x&(x\leq b)\\0&(x>b)\end{cases}$ のようになります。 2つの式をまとめて $f(x)=\max(0,b-x)$ と書くこともできます。

  • サポートベクターマシンとは[カーネル法による非線形サポートベクターマシン] - verum ipsum factum

    ここからはこれまで述べてきたサポートベクターマシンにカーネル法を適用することにより非線形サポートベクターマシンへ拡張することを考えます。 カーネル法の導入 これまで述べてきたサポートベクターマシーン分離面が超平面であることを前提としていました。しかし、実際の問題では正例データと負例データの境界が超平面であるよりは、複雑に入り組んだ超曲面である可能性が高いことが想定されます。 このようなデータに、これまで述べてきたようなクラス境界を超平面とするサポートベクターマシーンを適用しても、高い分類性能を期待することは難しそうです。 たとえば下図のような単純なケースでさえ正例データ(○)と負例データ(×)を分ける直線は存在しないため、100%の分類性能は達成できません。 しかし、このようなデータでも線形分離が可能になるような別の空間へ変換できれば、変換先の空間ではクラス境界が超平面になるのでサポートベ

    サポートベクターマシンとは[カーネル法による非線形サポートベクターマシン] - verum ipsum factum
  • PowerPoint プレゼンテーション

    Nara Institute of Science and Technology Augmented Human Communication Laboratory ビッグデータのための機械学習 2015/10/23 ビッグデータアナリティクス 第3回 1 奈良先端科学技術大学院大学 吉野 幸一郎 NAIST AHC Lab. • 機械学習の基礎 – 教師あり学習、教師なし学習 – 事前確率、事後確率 – 最尤推定、MAP推定、ベイズ推定 – 単純ベイズ、ロジスティック回帰、条件付き確率場、 サポートベクターマシン、ニューラルネット、深層学習 • 機械学習における分散処理 • Apache Spark での機械学習 2015/10/23 ビッグデータアナリティクス 第3回 2 日の内容 NAIST AHC Lab. 2015/10/23 ビッグデータアナリティクス 第3回 3 参考書 でき

  • カーネル法

    カーネル法 線形回帰、識別からカーネル関数へ y ( w ) = wT φ (x ) という一般化した線形回帰式に対して 2 1N λT T J ( w ) = ∑ {w φ ( x n ) − tn } + w w 2 n =1 2 ただし ⎛ φ1 ( x n ) ⎞ ⎜ ⎟ φ (x n ) = ⎜ M ⎟ ⎜ φ (x ) ⎟ ⎝M n⎠ tnはw T φ ( x n )がとるべき値。 ( Mは教師データの次元数 , Nは教師データ数) という正規化項つきの2乗誤差を考えるとき、 φ (x )についてもう少し組織的に考えてみよう。 カーネル関数と呼ばれる k (φ (x ), φ ( y )) で回帰や識別を考え直す ことにより、より効率の良い方法が見えてくる。 双対表現 まず、正規化項つきの2乗誤差関数を考える。 J ( w) = 1 2 ∑ {w φ (x

  • VC次元 - 機械学習の「朱鷺の杜Wiki」

    VC次元 (Vapnik-Chervonenkis dimension)† バイナリ関数のクラスが点集合をshatterするとは,バイナリのラベルをそれらの点にどのようにつけても,それらの点を分離するような関数がそのクラスに含まれること. \(n\)個の点であれば,任意の点の配置とラベル付けに対して,shatterできるような関数がクラスに含まれるが,それ以上点を増やすとshatterできなくなる場合があるとき,その関数クラスのVC次元は \(n\). -- しましま 汎化誤差を評価するために導入された学習機械の複雑さを表す指標. なんでこんなものを導入したかというと... 汎化誤差と経験誤差との違いを評価する際に,学習機械のパラメータ \(\theta\) を固定すれば (つまり正解を知っていれば)大数の法則が使えるが,真の \(\theta\) は知らないので, その違いをまず \(\

  • SVM(Support Vector Machine)

    1.SVM(Support Vector Machine) SVM(Support Vector Machine)は,1960年代に Vapnik によって提案された二値分類のための教師ありアルゴリズムである[1]。 1990年代になってカーネル学習法と組み合わせた非線形識別手法として脚光を浴びた。 そういう点で、ニューラルネットワークよりも誕生が新しい技法と言える。 図1では2次元データを平面上にプロットしたものである。○と●の2種類がある。 例えば、ある花の2品種について、花びらの長さと幅をプロットしたようなものである。 斜めに引いた実線は二つの品種を分ける境界線である。 現在プロットしているデータが学習データに当たる。 観測データに関しては、この境界線より左上側に位置するようならば、○(正)に分類し、 そうでなければ●(負)に分類するものである。 境界線の求め方を点線で示している。

    SVM(Support Vector Machine)
  • [チュートリアル講演] カーネルマシン

    次へ: はじめに [チュートリアル講演] カーネルマシン 赤穂 昭太郎1 Shotaro Akaho s.akaho@aist.go.jp 概要: サポートベクタマシン (SVM) に代表されるカーネルを用いた学習機械について解説する. これらにほぼ共通しているのは,基的に線形の学習機械の延長線上にあり, ローカルミニマムの問題などが少ないこと,それから,正則化を行うことにより 高い記述能力と汎化能力を両立していることが特長である. キーワード: サポートベクタマシン,正則化,スパースネス,数理計画法, 汎化 Kernel machines such as the support vector machine are reviewed. Most of them are not suffered from the local optimum problem, because they a

  • 1