タグ

k近傍法に関するrin51のブックマーク (4)

  • 332パターン認識 - 過去を知れば未来が分かる

    世の中には、既に分かっている過去のデータがあります。このデータを利用しない手はありません。過去のデータを利用すれば、もし分からない未来のデータが出現した場合、過去のパターンから有効な知識として活用させることができます。 今回、ご紹介するのはそんな過去を知れば未来が見えてくる手法です。概して『パターン認識』と呼ばれる手法とその類です。 「パターン認識」、難しい言葉に聞こえるかもしれませんが、我々は常にパターン認識をしております。 例えば、ある人の顔を見たときに瞬時に記憶の中から誰なのか識別してますし、初めて見る場合でも似たような人物を探しどんな人間なのか当てはめたりすることもできます。 楽しいときはどんな表情をするか、苦しいときはどんな表情をするかという「パターンクラス」を私たちは持っています。初めて会う人の表情でさえ、感情をよみとる能力を持ち合わせています。それがパターン認識です。

    rin51
    rin51 2013/01/06
    最短距離法、k近傍法、判別分析、ベイズ、決定木、ニューラルネットワークのイメージがありがたい / Firefox判別分析から右が動作しなかったIEならOK
  • k‐Nearest Neighbor 法 (PDF)

  • KNN法(K最近傍法)でクラス分類 - チョッキーの黒歴史

    超お手軽分類手法!!KNN法をRで実装してみた KNN法はデータ数が多量であれば、それなりの性能があるとされています。 実装方法は超簡単 入力データと全学習データとのユークリッド距離を計算。 距離が短いものから順にk個だけ学習データから取り出す。 取り出した集合で入力データのクラスを多数決で決める。 つーことでRでの実装 # KNN法 # x:入力データ, data:学習データ # t:学習データのクラスラベルのベクトル(1以上の正の整数) myKNN <- function(x,data,t,k){ classNum <- max(t) #クラス数 dataN <- length(t) #学習データ数 calcDistance <- function(d){ #ベクトル間のユークリッド距離計算 return ( sum( (d-x)^2 ) ) # sqrtなし } distances

    KNN法(K最近傍法)でクラス分類 - チョッキーの黒歴史
  • k近傍法 - Wikipedia

    k近傍法(ケイきんぼうほう、英: k-nearest neighbor algorithm, k-NN)は、入力との類似度が高い上位 k 個の学習データで多数決/平均するアルゴリズムである[1]。 パターン認識(分類・回帰)でよく使われる。最近傍探索問題の一つ。k近傍法は、インスタンスに基づく学習の一種であり、怠惰学習 の一種である。その関数は局所的な近似に過ぎず、全ての計算は分類時まで後回しにされる。また、回帰分析にも使われる。 概要[編集] k近傍法は以下の手順からなる: 入力と全学習データとの類似度(距離)測定 類似度上位 k 個の選出 選出されたデータの多数決あるいは平均 すなわち「入力とよく似た k 個のデータで多数決/平均する」単純なアルゴリズムである[1]。 例えば環境(気温/湿度/風速)から天気(雨/曇り/晴れ)を予測する分類問題を考える。k=5 のk近傍分類では、過去10

    k近傍法 - Wikipedia
  • 1