SVM (Support Vector Machine) はマージン最大化を特徴とした教師あり学習手法です。 線形SVM 非線形SVM 正則化 RでSVM 交差検証 パラメータチューニング OCSVM RでOCSVM 線形SVM SVMでは2つのクラスを分ける分離超平面を求めます。 ω を重みベクトル, γ を切片として各サンプルに対するマージンを正にする ω と γ が存在するとき線形分離可能であるといいます。 このマージンを最大限に余裕を持って分離する超平面を選択することをマージン最大化といいます。 この分離超平面を求めることは, マージンの逆数の二乗を最小化する最適化問題です。 制約が等式の場合, 最適解を探すのは難しいことからラグランジュの未定乗数法というテクニックを用います。 ラグランジェ関数 L を使うことでラグランジュ関数と制約関数の連立方程式にできるのでこれを解くことで最適