クラスタリングや分類などを行う際、なるべく冗長となる特徴量は取り除いてから 行った方が精度や実行時間の観点で有効だとされています。 この「冗長となる特徴量を取り除く」方法は特徴選択と呼ばれ、 これまでに多数の手法が提案されています。 ということで今回は、新たな特徴選択手法を提案している論文 Yi Jiang , Jiangtao Ren Eigenvalue Sensitive Feature Selection (ICML2011) を読んでみました(以下、この論文の提案手法をESFSとします)。 具体的な方針としては、ある特徴を変化させた(取り除いた)とき、 Laplacian Eigenmaps(Belkinらによって提案されたグラフラプラシアンを利用した次元削減手法。以下、LE) の結果にどれだけ影響を及ぼすか計ろうというものです。 例えば番目の特徴の変化が、LEの結果に多大な影響