タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

はてダとSVMに関するwkmyのブックマーク (1)

  • 多クラスSVM - 元データ分析の会社で働いていた人の四方山話

    についての論文を読む。 SVMは基的には2クラス分類器なので、多クラス分類は原理的には不可能である。 そこで、多クラスの分類にSVMを用いるには以下の二つを用いる。 One-Versus-Rest(1-vs-R) One-Versus-One(1-vs-1) 1-vs-Rは一つのクラスと残りすべてのクラスのデータの分類器としてSVMを用いる。 なので、必要となるSVMは、Nクラス分類問題に対してはN個。 学習後のN個のSVMで最大の出力を示したものに分類。 分類そのものが複雑になるのと、データに偏りが生じやすい。 1-vs-1は2クラスの組み合わせを作り、それぞれを2クラス分類問題としてSVMを用いる。 なので、必要となるSVMは、Nクラス分類問題に対してはN(N-1)/2個。 学習後のSVMで出力を統合したり、多数決で分類。 分類そのものは単純であるが、必要となる分類気が多い。 読んだ

    多クラスSVM - 元データ分析の会社で働いていた人の四方山話
  • 1