タグ

カーネル法に関するsimakawaのブックマーク (4)

  • 機械学習におけるカーネル法について - めもめも

    何の話かというと 機械学習におけるカーネル法の説明で、よく登場するのがこちらの図です。 左側の (x, y) 平面上の点を分類する場合、このままだと線形分類器(直線で分類するアルゴリズム)ではうまく分類できないのが、右図のように z 軸を追加してデータを変形すると、平面できれいに分割できるようになって、線形分類器による分類がうまくいくというものです。このように、高次元空間にデータを埋め込むことでうまいこと分類するのがカーネル法の仕組みだというわけです。 なのですが・・・・・・・・・・・・・・・・・・・・ これ、当にカーネル法の原理を知っている方には、ちょっと気持ち悪くないですか? ※ 以下はカーネル法を知っている方向けのつぶやきです。 上記の例は、データの配置にあわせて、うまいこと z 軸方向の変形をしているのでうまくいっているのですが、カーネル法には、データの配置にあわせてうまいこと変

    機械学習におけるカーネル法について - めもめも
  • サポートベクターマシンとは[カーネル法による非線形サポートベクターマシン] - verum ipsum factum

    ここからはこれまで述べてきたサポートベクターマシンにカーネル法を適用することにより非線形サポートベクターマシンへ拡張することを考えます。 カーネル法の導入 これまで述べてきたサポートベクターマシーン分離面が超平面であることを前提としていました。しかし、実際の問題では正例データと負例データの境界が超平面であるよりは、複雑に入り組んだ超曲面である可能性が高いことが想定されます。 このようなデータに、これまで述べてきたようなクラス境界を超平面とするサポートベクターマシーンを適用しても、高い分類性能を期待することは難しそうです。 たとえば下図のような単純なケースでさえ正例データ(○)と負例データ(×)を分ける直線は存在しないため、100%の分類性能は達成できません。 しかし、このようなデータでも線形分離が可能になるような別の空間へ変換できれば、変換先の空間ではクラス境界が超平面になるのでサポートベ

    サポートベクターマシンとは[カーネル法による非線形サポートベクターマシン] - verum ipsum factum
  • 今更聞けないリプレゼンター定理の解説

    定義 リプレゼンター定理(Representer theorem)とは、 「損失関数が$\boldsymbol{\omega}^{ \mathrm{ T } }\boldsymbol{\phi}(\boldsymbol{x}_i)$(パラメータ$\boldsymbol{\omega}$と特徴ベクトルの積)の関数として表現できるとする。この損失関数に正則化項を加えて最適化する問題において、その正則化項が$\lambda\boldsymbol{\omega}^{ \mathrm{ T } }\boldsymbol{\omega}$という形をしていれば、その最適解$\hat{\boldsymbol{\omega}}$は$\boldsymbol{\phi}(\boldsymbol{x}_i)$で張られる空間に存在する」 というものである。 この定義だけでは理解し難いので、具体例を記しておく。 例え

  • カーネル法 正定値カーネルを用いたデータ解析

    1 2004 11 24~26 Final version. Nov.26, 2004 2 I 1. 2. � � 3. � � PCA CCA . � � Bochner � representer 3 II 5. � � � ICA, 7. 4 g(x) Parzen window ∑ = − = N i i x x g N x p 1 ) ( 1 ) ( 5 1. � 6 � ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛ = N m N m m X X X X X X X L M M L L 1 2 2 1 1 1 1 m N 7 x1 x2 z1 z3 z2 ) 2 , , ( ) , , ( 2 1 2 2 2 1 3 2 1 x x x x z z z = 8 � xi Φ(xi) zi H Ω H Ω H → Ω Φ : 9 � H = feature space

  • 1