タグ

機械学習とstudyに関するtorutoのブックマーク (7)

  • PFIセミナー資料: 研究開発2009 - DO++

    昨日ありました、PFIでのセミナーでの発表資料です。 研究開発のチームの紹介の後に、2009年サーベイした論文の中で面白かった論文を 機械学習、データ構造、画像処理で紹介してます 紹介した話は - Multi-class CW (Multi-class Confidence Weighted Learning,) - AROW (Adaptive Regularization Of Weight Vector) - Online-EM algorithm - 全備簡潔木 (Fully-functional Succinct Tree) - 圧縮連想配列 (compressed function) - PatchMatch です。 #資料中の簡潔木の表現方法のDFUDSの紹介でtxも使用と書いてあるのは、公開しているtxでは、 LOUDSのみをつかっていますので正確ではありませんでした。これ

    PFIセミナー資料: 研究開発2009 - DO++
  • [機械学習] トピックモデル関係の論文メモ - tsubosakaの日記

    最近読んだトピックモデル関係の論文のざっとしたメモ。内容については間違って理解しているところも多々あると思います。 (追記 12/24) 最後のほうに論文を読む基礎となる文献を追加しました。 Efficient Methods for Topic Model Inference on Streaming Document Collections (KDD 2009) 論文の話は2つあって一つ目がSparseLDAというCollapsed Gibbs samplerの省メモリかつ高速な方法の提案と2つ目はオンラインで文章が入力されるような場合において訓練データと新規データをどう使うかという戦略について述べて実験している。 Collapsed Gibbs samplerを高速化しようという論文はPorteous et al.(KDD 2008)でも述べられているけどそれよりも2倍ぐらい高速(通

    [機械学習] トピックモデル関係の論文メモ - tsubosakaの日記
  • PRML/course - 機械学習の「朱鷺の杜Wiki」

    必要な事前知識† 微積分:多変量の微分や積分は必要です.ラグランジュの未定乗数法や簡単な変分も必要ですがこれらは付録に簡単な解説があります.複素数の微積分については不要です. 線形代数:3×3以上の固有値・逆行列,行列に対する微積分は必要ですが,これらについては付録に簡単にまとめられています.\(l^2\)空間やヒルベルト空間,複素数については不要です. 確率:基礎については1章で述べられていますが,確率の扱いや考えに慣れていると便利です.確率測度など公理にまで踏み込んだ知識や,統計の検定などの知識は不要です. ↑ 書に関連する分野† 以下の分野でデータからの予測や分析が必要とされる分野 対象分野:書と直接的な関連がある分野には次のようなものがあります. 機械学習,パターン認識,統計,データマイニング 応用分野:機械学習,パターン認識,統計的予測技術が応用されている分野には次のようなも

  • 最大マージン kNN と SVM の関係: kNN も最近はがんばっています - 武蔵野日記

    先日書いた機械学習における距離学習の続き。 kNN (k-nearest neighbour: k 近傍法)は Wikipedia のエントリにも書いてある通り、教師あり学習の一つで、あるインスタンスのラベルを周辺 k 個のラベルから推定する手法。memory-based learning と呼ばれることもある。単純に多数決を取る場合もあれば(同点を解決する必要があるが)、近いインスタンスの重みを大きくする場合もあるのだが、いずれにせよかなり実装は単純なので、他の機械学習との比較(ベースライン)として使われることも多い。 簡単なアルゴリズムではあるが、1-NN の場合このアルゴリズムの誤り率はベイズ誤り率(達成可能な最小誤り率)の2倍以下となることが示されたり、理論的にもそれなりにクリアになってきているのではないかと思う。また、多クラス分類がちょっと一手間な SVM (pairwise に

  • ちょwww - 元データ分析の会社で働いていた人の四方山話

    めちゃめちゃ興味あるんですけど http://bioinfo.is.ocha.ac.jp/poster-kokai-seminar/15th-bio-shotai.pdf とおすぐる>< まあ少しまじめな話をすると、 Support Vector Machine を代表とするKernel-based Machine Learning では、アプリケーションを特徴付けるカーネル関数をうまく設計することが成否の鍵となる。カーネル関数は半正定値という数学的性質により定義されており、その性質を満足するようにカーネル関数を設計することは意外に易しくはない。 前半はまさに正しくて非線形な処理を行うには、SVMをはじめとしてカーネルはきってもきりはなせない。 でも後半の部分もカーネルの説明をするときには良く言われることだけど、最近少し気になることを聞いた。 データの性質に合うカーネル関数を「うまく設計」

    ちょwww - 元データ分析の会社で働いていた人の四方山話
    toruto
    toruto 2008/07/16
    データの性質に合うカーネル関数を「うまく設計」することができるってことは、データの構造がある程度分かっているってことで、それなら計算コストの高い機械学習じゃなくてもよくね?って意見があるらしい。
  • DO++: いろんな学会

    ICML/UAI/COLTのaccepted paperが出揃い、ざーっと面白そうなのを片っ端から読んでみました。 ICMLの読んでみた、読んでみたいリスト そのうちピックアップします。 ICMLは強化学習系が多くなっているなぁという気もしたのですがそうでもないかな。 ついでに、私が興味を持ってみている機械学習の学会(と一個ジャーナル)紹介を。これも境界領域なので他の学会で面白い話が発表されたりすることも多いです。 機械学習系 JMLR Journal of Machine Learning Research 機械学習の一番メジャーなジャーナルで出るスピードも速い(その年に学会発表されたものがその年のうちに出てくることも珍しくない)。全部web上からタダで論文を落とせる。よいですね ICML International Conference on Machine Learning 機械学習

    DO++: いろんな学会
    toruto
    toruto 2008/05/27
    学会まとめ
  • VideoLectures - exchange ideas & share knowledge

  • 1