2008年8月26日 PCAとLDAについて (研究メモです) パターン認識を行う系は大きく識別対象からその識別に有効な特徴を抽出する特徴抽出部と、その特徴を用いて実際に識別処理を行う識別部に分けることができる。 抽出された特徴はベクトルの形で表現され、識別部で処理される。 どの識別器を用いるかにもよるが、学習データのサンプル数に対してベクトルの次元数が膨大になることは処理を困難にする。 膨大な次元数の特徴ベクトルを用いたパターン認識として以下の方法が考えられる。 1.識別器としてSVMなど膨大な次元数を扱えるものを用いる 2.次元圧縮処理を行う 1で挙げたSVMは最近パターン認識の分野では広く用いられている手法である。 2の場合、PCAとLDAが有名な手法だ。 次元圧縮処理は特徴空間の変換と考えることができるので線形空間で考えると、ある次元のベクトルを()次元のベクトルに変換する処理、す
■上巻 第1章: 序論 序論ではまずパターン認識の最も簡単な例として多項式曲線フィッティングを取り上げ、パターン認識・機械学習の基本的な枠組みを紹介する。そしてベイズの定理や統計量などの確率論の基礎を導入し、確率論の観点から再び曲線フィッティングを扱う。不確実性はパターン認識の分野における鍵となる概念であり、確率論はこれを定量的に取り扱うための一貫した手法を与えるため、この分野における基礎の中心を担っている点で重要である。 また、回帰・識別の実際の取り扱いに際して必要となる決定理論や、パターン認識・機械学習の理論において役立つ情報理論の導入についても行う。 発表資料はこちら(ppt)とこちら(ppt)。前半では多項式曲線フィッティングの例およびベイズ的確率を、後半では決定理論および情報理論を取り扱っている。 第2章: 確率分布 第2章では二項分布や多項分布、ガウス分布といった各種の確率分布
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く