タグ

パターン認識に関するkamipoのブックマーク (5)

  • 統計的機械学習(Hiroshi Nakagawa)

    統計的機械学習 (under construction) 導入ppt pdf 情報の変換過程のモデル化 ベイズ統計の意義 識別モデルと生成モデル 次元の呪い 損失関数, bias, variance, noise 数学のおさらいppt pdf 線形代数学で役立つ公式 情報理論の諸概念 (KL-divergenceなど) 指数型分布族、自然共役 正規分布(条件付き、および事前分布) 評価方法ppt pdf 順位なし結果の評価(再現率、精度、適合率、F値) 順位付き結果の評価 線形回帰と識別ppt pdf 線形回帰 正規方程式 正規化項の導入 線形識別 カーネル法ppt pdf 線形識別の一般化 カーネルの構築法 最大マージン分類器 ソフトマージンの分類器 SVMによる回帰モデル SVM実装上の工夫 モデル推定ppt pdf 潜在変数のあるモデル EMアルゴリズム 変分ベイズ法 Expecta

  • Amazon.co.jp: パターン認識と機械学習 上 - ベイズ理論による統計的予測: C. M. ビショップ (著), 元田浩 (翻訳), 栗田多喜夫 (翻訳), 樋口知之 (翻訳), 松本裕治 (翻訳), 村田昇 (翻訳): 本

    Amazon.co.jp: パターン認識と機械学習 上 - ベイズ理論による統計的予測: C. M. ビショップ (著), 元田浩 (翻訳), 栗田多喜夫 (翻訳), 樋口知之 (翻訳), 松本裕治 (翻訳), 村田昇 (翻訳): 本
  • バックプロパゲーションを擁護する

    バックプロパゲーションを擁護する (ただし,ここに書くことはあくまでも僕個人の意見.) 戻る さて,巷の見解ではまるでバックプロパゲーションがSVMより劣っているかのように言われておりますが, そんな意見には「ちょっと待った」と言いたい. そもそも,バックプロパゲーションとSVMを比較すること自体がナンセンスなのだ. それに気付いていない研究者が多いような気がするのですが,どうですか. バックプロパゲーションの最も得意とする問題はなにか. そこからまず考えねばならんでしょう,やっぱり. 「バックプロパゲーションがSVMと比較して劣っている」 と考えている人たちの最大の問題点は, バックプロパゲーションを識別機械の学習則としてしか考えていないことだ. 確かに特徴空間の分離という観点から考えれば, 「マージン最大化」という明確な基準を持ったSVMの学習則は優れている

  • サポートベクターマシン - Wikipedia

    サポートベクターマシン(英: support-vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの1つである。分類や回帰へ適用できる。1963年にウラジミール・ヴァプニク(英語版)とAlexey Ya. Chervonenkisが線形サポートベクターマシンを発表し[1]、1992年にBernhard E. Boser、Isabelle M. Guyon、ウラジミール・ヴァプニクが非線形へと拡張した。 サポートベクターマシンは、現在知られている手法の中でも認識性能が優れた学習モデルの1つである。サポートベクターマシンが優れた認識性能を発揮することができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。 基的な考え方[編集] サポートベクターマシンは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。訓練サンプルから

    サポートベクターマシン - Wikipedia
  • k近傍法 - Wikipedia

    k近傍法(ケイきんぼうほう、英: k-nearest neighbor algorithm, k-NN)は、入力との類似度が高い上位 k 個の学習データで多数決/平均するアルゴリズムである[1]。 パターン認識(分類・回帰)でよく使われる。最近傍探索問題の一つ。k近傍法は、インスタンスに基づく学習の一種であり、怠惰学習 の一種である。その関数は局所的な近似に過ぎず、全ての計算は分類時まで後回しにされる。また、回帰分析にも使われる。 k近傍法は以下の手順からなる: 入力と全学習データとの類似度(距離)測定 類似度上位 k 個の選出 選出されたデータの多数決あるいは平均 すなわち「入力とよく似た k 個のデータで多数決/平均する」単純なアルゴリズムである[1]。 例えば環境(気温/湿度/風速)から天気(雨/曇り/晴れ)を予測する分類問題を考える。k=5 のk近傍分類では、過去100日の環境-天

    k近傍法 - Wikipedia
  • 1