タグ

2011年9月7日のブックマーク (4件)

  • 線形回帰、カーネル線形回帰をRで実装する - Loud Minority

    http://d.hatena.ne.jp/sesejun/20090401/p1 で紹介したカーネル多変量解析の続き。 演習があるべきだ、と言ったが一般にカーネル法だと、与えられた点の数だけ次元を持つ正方行列を扱うので、演習を作っても手で解くのがつらい。だから、こんな風にソースコードを入れてみるのは、どうかと思ったので、このエントリを書いてみた。 線形回帰からカーネル線形回帰までをRで書いてみる(行列扱うのが楽なので)。式番号は、カーネル多変量解析のに出てくる式番号である(まだ式番号をつけていないところが多いので、後日つけます付けました。2009/4/3)。 まずは単なるXYプロット。正規分布を鋭角にした感じの点20個。図1.3(P9)の点を真似た。 x1 <- c(-2,-1.69,-1.5,-1.3,-1.1,-0.9,-0.7,-0.48,-0.42,-0.05,0.09,0.

    線形回帰、カーネル線形回帰をRで実装する - Loud Minority
    showyou
    showyou 2011/09/07
  • 20110904cvsaisentan(shirasy) 3 4_3

    1. 第3巻 第4章 Bag-of-Featuresに基づく物体認識(2) 2011.09.04 CV勉強会@関東(第15回) 3. 局所特徴量とbag-of-features shirasy 1 2. 第3巻 第4章 Bag-of-Featuresに基づく物体認識(2) 3.1 局所特徴量登場以前の物体認識 3.2 局所特徴量 3.3 Bag-of-features 3.4 Spatial Pyramid Matching 3.5 Bag-of-Featuresの拡張 2 3. 3.1 局所特徴量登場以前の物体認識 画像認識研究の流れ 1960年代 1960年代 • 対象:線画 • 内容:線画解釈 1970年代 1970年代 • 対象: 航空画像、風景画像 • 内容: 各領域の形状、色、模様、領域間の関係などを手がかりに ラベリングにより認識 1980年代 1980年代 • 内容:エキス

    20110904cvsaisentan(shirasy) 3 4_3
  • 第1回データ構造と情報検索と言語処理勉強会で発表してきました - 蝉々亭

    夏休みの宿題はいつも、泣きながら8月末に取り組むタイプでした。今となっては懐かしいその気持ちをちょっと思い出しました。7月23日に、第1回データ構造と情報検索と言語処理勉強会にて「自然言語処理における argmax 操作」なるタイトルで発表させていただきました。その際に用いましたスライドを(漸く)公開いたします。 Argmax Operations in NLP View more presentations from Hitoshi NISHIKAWA 線形計画問題を解くシンプレックス法のアルゴリズムについて加筆しています。ちょっと時間がかかり過ぎてしまいましたね。 A* 探索についても加筆しようと思いましたが、すぐに第7回自然言語処理勉強会がやって参りますので、流石に多重スライド務者は避けたいので公開します。

    第1回データ構造と情報検索と言語処理勉強会で発表してきました - 蝉々亭
  • 線形識別器でカーネルトリックを使う方法 - Preferred Networks Research & Development

    WEB+DB PRESS Vol.64に「作って学ぶ日本語入力」という特集記事を書かせていただきました。徳永です。全国の書店で発売中ですので、ぜひみなさんお買い求めください。(宣伝) さて今回は、線形識別器でカーネルを使うのと同じ効果を得るための手法を紹介したいと思います。 カーネルとは SVMはカーネルトリックによって非線形識別を可能としたことによって、研究コミュニティで大流行しました。 カーネルトリックは線形空間では線形分離できないデータを高次元空間に写像してそっちで線形分離しちゃおう、でも高次元に実際に写像してしまうと計算量が増えちゃうから、問題を等価な形に変形して高次元に写像した場合と同じ結果を高速に計算しようね、というテクニックです。具体的には、高次元データが出てくる部分は全部内積で書ける形に変形し、この内積の部分をカーネルと呼ばれる特殊な関数で置き換えます。 結局、自然言語処理

    線形識別器でカーネルトリックを使う方法 - Preferred Networks Research & Development