タグ

SVMに関するp_tanのブックマーク (3)

  • 第7回ケモインフォマティクス入門講座 講義資料

    ケモメトリックス データセットの定義 内容 1/2 内容 2/2 注意点 どうしてデータの前処理をするの? オートスケーリング (標準化) オートスケーリングの例 センタリング スケーリング モデル検証用(テスト)データのオートスケーリング 分散が0の変数の削除 同じ値を多くもつ変数の削除 注意点 相関係数の高い変数の組の1つの削除 しきい値は?どちらを消す? 注意 内容 1/2 入門編の復習 回帰分析ってなに? 最小二乗法による線形重回帰分析 最小二乗法による重回帰分析 どうして PLS を使うの?~多重共線性~ PLS とは? PLSと一般的な重回帰分析 線形判別分析 (LDA) とは? “最もよく判別する” とは? 重み w の求め方 サポートベクターマシン (SVM) とは? 線形判別関数 SVMの基的な考え方 きれいに分離できないときは? 2つの項を一緒に最小化 線形判別関数

    第7回ケモインフォマティクス入門講座 講義資料
  • Introduction to one-class Support Vector Machines - Roemer's blog

    Traditionally, many classification problems try to solve the two or multi-class situation. The goal of the machine learning application is to distinguish test data between a number of classes, using training data. But what if you only have data of one class and the goal is to test new data and found out whether it is alike or not like the training data? A method for this task, which gained much po

    p_tan
    p_tan 2017/07/28
    one class SVMの紹介。これまで見た説明には、外れ値を原点に集める定式化と、超球の外に出す定式化があって混乱していたけど、それぞれ論文があったのな。
  • パターン認識と機械学習 §6.2 カーネル関数の構成

    1. パターン認識と機械学習 6.2 カーネル関数の構成 PRML復々習レーン #9 2013/3/10(日) ぷるうぬす@Prunus1350 13年3月10日日曜日 1 2. • カーネル関数を構成するには? (x) (1) 特徴空間への写像   を考え、これをもとに対応するカー ネルを構成する。 M X 0 T 0 0 k(x, x ) = (x) (x ) = i (x) i (x ) i=1 (2) カーネル関数を直接定義する。 • 与えた関数がカーネル関数として有効であることを保証 する必要がある。 • 言い換えれば、ある特徴空間におけるスカラー積である ことを保証する必要がある。 13年3月10日日曜日 2 3. (2) の簡単な例 k(x, z) = (xT z)2 x = (x1 , x2 ) 2次元の入力空間       を考えると、対応する特徴空間 への非線形写像を得

    パターン認識と機械学習 §6.2 カーネル関数の構成
  • 1