タグ

2011年6月27日のブックマーク (5件)

  • ベイズの公式は地味に難しいので、確率の乗法公式を2回使おう - 木曜不足

    ベイズの公式はこんな形をしている。 これは実際に使おうと思ったら、意外と難しい。 例えば PRML (5.164) 式はこうなっている。 これをベイズの公式から出そうとしたら X と Y をどうしたらいいのやら。いや、なんか X と Y に当てはめようがないのもあるぞ。 そもそも「ベイズの公式を正しく憶える」のもなにげにハードルが高い。えーと、X と Y と X|Y と Y|X のどれが上で下で……。 でも、確率の乗法公式を2回使う方法なら、簡単。 まず同時分布を見極める。 上の (5.164) 式の右辺 p([A]|・)p([B]|・) の [A][B] の位置に出てくる変数に注目しておいて欲しい。 同時分布の確率変数は [A] と [B]、つまり w と D であり、残りは given なパラメータ or 変数なので、 がここで注目したい同時分布。 次はこの同時分布を [A] に使われ

  • AndroidとOpenCVで試す特定物体認識 - 遥かへのスピードランナー

    6月2日に開催されたDevLOVEさんと弊社の共同開催勉強会で、「Android×ComputerVision」というお題で発表してきました。 要はOpenCVAndroidアプリに組み込んで特定物体認識を試そう、というもの。 資料は以下です。 20110602_MTI×DevLOVE発表資料「Android×ComputerVision」 View more presentations from Takahiro Horikawa ソースはgithubで公開してます。 https://github.com/thorikawa/AndroidObjectRecognition/ 概要 資料にも記載していますが、カメラのプレビュー画像からSURFの特徴点を検出して、LSHで再近傍検索→特定物体認識というのを毎フレーム行っています。 「物体」はCDのジャケット画像を5枚の内から認識して、それ

    AndroidとOpenCVで試す特定物体認識 - 遥かへのスピードランナー
  • SVMの正則化項がマージン最大化のために必要な理由 - 射撃しつつ前転 改

    ラージマージンとマージン最大化について2回ほど書いてきた。 あの後もSVMとマージンパーセプトロンについてうだうだと考えていたのだが、もうちょっとシンプルな説明を思いついた。 SVMの特徴はヒンジロスを採用している点と、正則化項があるところである。 ヒンジロスはもう何度も出てきているが、max(0, 1-ywx)みたいな奴で、1-ywx<=0の時にだけ損失を0とするものである。 正則化は、wの各要素をできるだけ0に近づけようとする力で、要するに、この力に打ち勝つだけの価値を持つ素性だけが生き残れる。マージンパーセプトロンとSVMの大きな違いは、この正則化項のあるなしである。 前回は、ALMAの論文を持ち出してマージンパーセプトロンは近似的な最大マージンでしかない、と書いたが、そもそもSVMは最大マージンなのか。とりあえず、ヒンジロスだけで正則化項が存在しない場合(つまり、ほぼマージンパーセ

    SVMの正則化項がマージン最大化のために必要な理由 - 射撃しつつ前転 改
  • オンライン学習による線形識別器 - kisa12012の日記

    オンライン学習による線形識別器(Online Linear Classifiers ~PerceptronからCWまで~)というタイトルで研究室内の勉強会発表を行いました. 勉強会で使用したスライドを以下に公開します. (スライドが表示されない場合は,一度リロードを行うと表示されるようになる場合があります.) スライド OnlineClassifiers View more presentations from Hidekazu Oiwa. 内容概説 スライドの構成は以下の通りです. 線形識別器とオンライン学習の定義,特性の説明 Perceptron MIRA / Passive-Aggressive Confidence-Weighted Algorithms 各アルゴリズムについて,アルゴリズム概要・理論保証・その後の発展に焦点を当てて解説しています. 内容のちょっとした補足 上のス

    オンライン学習による線形識別器 - kisa12012の日記
  • 高村本でCRFのお勉強をしたのでメモ - EchizenBlog-Zwei

    「言語処理のための機械学習入門」通称高村でCRF(Conditional Random Fields, 条件付き確率場)のお勉強をしたのでメモしておく。 まず最初に世界には単純な線形識別関数があった。 y = wxこの線形識別関数で、素性はxそのもの。人々はよりリッチな素性が欲しくなったので事例xと正解ラベルtによって定まる素性φ(x, t)を思いついた。つまり y = wφ(x, t)である。さらにこれを確率化したくなった。確率とはつまり 1: P(x) >= 0 2: ΣP(x) = 1を満たす関数のこと。まずは1:を考える。つねにゼロ以上の値をとればよいのでyをexp(y)とする。こうすると y = -∞ => exp(y) = 0 y = ∞ => exp(y) = ∞ となりゼロ以上になることが保障される。つぎに2:を考える。足して1にするには全てのexp(y)の和で各exp(

    高村本でCRFのお勉強をしたのでメモ - EchizenBlog-Zwei