MLに関するmurawakiのブックマーク (151)

  • 第1回 Latent Dynamics ワークショップ

    おかげさまで、立ち見が出るほどの大盛況のうちに終了いたしました。発表された皆様、参加された皆様に心より御礼申し上げます。 参加者の方から頂いたフィードバックはこちら。 日時: 2010年6月16日(水)10:00-17:00 場所: 東京大学工学部6号館3階 セミナー室A・D (地図はこちら) 協賛: 情報論的学習理論と機械学習(IBISML)研究会 第1回 IBISML研究会との連続開催です。 問合せ先: workshop_01 latent-dynamics.net 参加費は無料です。 聴講参加に関しては参加登録の必要はありません。 17:30から郷周辺で懇談会を予定しております。 Proceedings 全ての予稿をまとめたものをこちらからダウンロードできます。また、個々の予稿およびスライドは下記のプログラムのところからダウンロードできます。 出版物名称 日語: 第1回 Late

    murawaki
    murawaki 2010/06/16
  • グラフラプラシアンで推薦

    以前縁あって小町さんと一緒に仕事をさせてもらい論文に名前を載せてもらったのですが、会社だけでなく自宅でもちょっと使いたいなーということもあり、実装してみることにしました。 参考にしたのは以下の論文です。 ラプラシアンラベル伝播による検索クリックスルーログからの意味カテゴリ獲得 元論文と違うのは、インスタンス-パターン行列の要素を単純な頻度から別の尺度に変えている点です。 元々そのまんま実装してみたところ、非常にレアな場合なのですが、ジェネリックパターン1つのみと共起するようなインスタンスがあった場合に、これが上位に出やすくなるという問題が発生し、どうにかできないかなと模索していたところ、小町さんからアドバイスを頂き、それを基に手を加えています。 とりあえず動作検証のためにMovieLens Data Setsを使って実験してみました。 最初にデータのフォーマットをツールの入力形式へ変更。

    murawaki
    murawaki 2010/06/14
  • Type based MCMC: mots quotidiens.

    Percy Liang の "Type-Based MCMC" (NAACL 2010) [PDF] を何回かに分けて読んでいて, ようやくほぼ理解できた。 これはすごい論文です。非常に基礎的な話で, 統計の専門ジャーナルにも余裕で 通る話だと思いましたが, NAACLという。Michael Jordanが第2(第3でなく)著者なので, 恐らく Jordan のテイストが結構入っているのだと思います。 よくこれだけの内容を8ページに書いたなぁ..というのが最初の感想で, ちなみに, かなりベイズ的な議論に慣れていないと, 普通の自然言語処理の人だとそもそも何を 言っているのかさっぱりわからないかも知れないと思いました。 少し前に情処論文誌でトンデモ査読をされて唖然としたので, 余計にそう思うのかもしれませんが..。 *1 内部のベイズ勉強会では別の話 ("Painless Unsuperv

    murawaki
    murawaki 2010/06/10
  • NAACL 2010 Retrospective

    my biased thoughts on the fields of natural language processing (NLP), computational linguistics (CL) and related topics (machine learning, math, funding, etc.) I just returned from NAACL 2010, which was simultaneously located in my home town of Los Angeles and located nowhere near my home town of Los Angeles. (That's me trying to deride downtown LA as being nothing like real LA.) Overall I was pl

    murawaki
    murawaki 2010/06/08
  • https://people.eecs.berkeley.edu/~denero/research/papers/naacl10_berg-Kirkpatrick_painless.pdf

    murawaki
    murawaki 2010/06/01
  • Exact Passive-Aggressive Algorithm for Multiclass Classification Using Support Class - ny23の日記

    こちらは SDM の発表.マルチクラス向けの PA の精度改善.去年の研究会に出てた話と同じかな.ようやく PDF が公開. さらっと眺めただけなので,後でちゃんと読もう.

    Exact Passive-Aggressive Algorithm for Multiclass Classification Using Support Class - ny23の日記
    murawaki
    murawaki 2010/05/25
  • Online Passive-Aggressive Algorithms on a Budget - ny23の日記

    AISTATS という学会で出てた論文.Projectron の更新の遅さを解決している模様.より正確には,Forgetron や Random Budget Perceptron と更新が同じ計算オーダ (O(B); BPA-NN) で O(B^2) の Projectron++ と同程度の精度が出るとのこと.パッと見たところ,mistake bound の analysis は無いようだ.あと,hinge loss を ramp loss にして精度改善 (訓練例のマージンが小さい時だけ更新する PA-I という感じの更新式). ramp loss と active learning の関連に言及している辺りが面白い.以前聴いた Learning with Annotation Noise も関係してるかな (後で確認しよう).

    Online Passive-Aggressive Algorithms on a Budget - ny23の日記
    murawaki
    murawaki 2010/05/25
  • Google Code Archive - Long-term storage for Google Code Project Hosting.

    Code Archive Skip to content Google About Google Privacy Terms

    murawaki
    murawaki 2010/05/11
  • [機械学習] PRML勉強会 - tsubosakaの日記

    PRML勉強会で11.4のスライスサンプリングについて発表してきました。 発表スライドは以下となります。 Prml11 4View more presentations from tsubosaka. また、参考として以前のPRMLハッカソンで作成したスライスサンプリングを用いたLDAのコードをgithubにアップロードしました。http://github.com/tsubosaka/LDASlice/tree/master/src/lda/

    [機械学習] PRML勉強会 - tsubosakaの日記
    murawaki
    murawaki 2010/05/09
  • [機械学習] PRML Hackathon #2 - tsubosakaの日記

    PRML Hackathonに行ってきました。 今回のHackathonでは昨日書いたスライスサンプリングという手法をLDAの推論に使ってみて通常のGibbs samplerと比較してみました。 結果としてはサンプリング速度が2-3倍程度高速になり、手法の有効性を確かめることができました。また、perplexityの値は Gibbs samplerよりも少し悪い結果となりました。(誤解を招く表現でした、詳しくは下に追記しました) Prml HackathonView more presentations from tsubosaka. 追記: perplexityの値が悪くなったというと変分ベイズのように近似が入って性能が悪くなる印象を与えますがそうではないです。 slice samplerはgibbs samplerと同様に十分な回数反復すれば正しい確率分布からのサンプルを取ることができ

    [機械学習] PRML Hackathon #2 - tsubosakaの日記
    murawaki
    murawaki 2010/03/28
  • [機械学習] スライスサンプリング - tsubosakaの日記

    持橋さんのlwlmに関する記事を読んで、スライスサンプリング[1,2]というのが有用そうということで調べてみたのでメモ。 スライスサンプリング概要 今確率分布f(x)が の形で与えられており、このf(x)からxをサンプリングすることを考える。ここでl(x)は非負の関数、\pi(x)は確率密度関数とする。 サンプリングを以下の手順で行なう 初期値x_0を適当に決定する u_t = Uniform(0 , l(x_t))で一様分布からサンプリング X_t = { x | u_t < l(x)}とする x_{t+1}をX_tに含まれるxから\pi(x)に従ってサンプリングする 2へ戻る ここでu_tの値は捨てて、{x_t}だけ取り出すとf(x)に従うxをサンプリングできる。 何が嬉しいのか スライスサンプリングの話は以前から聞いたことがあったのですが、連続の場合だと4の部分が簡単にできそうではな

    [機械学習] スライスサンプリング - tsubosakaの日記
    murawaki
    murawaki 2010/03/27
  • lwlm, The Latent Words Language Model.

    Daichi Mochihashi NTT Communication Science Laboratories $Id: lwlm.html,v 1.1 2010/03/19 10:15:06 daichi Exp $ lwlm is an exact, full Bayesian implementation of the Latent Words Language Model (Deschacht and Moens, 2009). It automatically learns synonymous words to infer context-dependent "latent word" for each word appearance, in a completely unsupervised fashion. Technically, LWLM is a higher-or

    murawaki
    murawaki 2010/03/20
  • L1正則化の累積更新 - EchizenBlog-Zwei

    L1正則化を累積更新するというTsuruoka氏の手法を、先日のNLP2010で岡野原さんが紹介されていたので該当論文を読んでみた。どういう事を書いているのかざっとメモ。ほんとに概要だけなので詳しくは↓をよむべし。 Stochastic Gradient Descent Training for L1-regularized Log-linear Models with Cumulative Penalty はじめに。L1正則化というのは正則化の一種。で、正則化というのは何かと言うと識別器を学習させる際に過学習を抑制させるためにペナルティを与えること。 正則化には主にL1とL2の二つがあるのだが、このうちL1は不要なパラメータをごっそりゼロにする(つまりパラメータ数を減らせるので省メモリ化できる)という利点がある。L1は正則化の式が滑らかでないので(つまり微分すると非連続点がでてしまうので

    L1正則化の累積更新 - EchizenBlog-Zwei
    murawaki
    murawaki 2010/03/14
  • 統計的自然言語処理におけるMCMC法

    MCMC NTT daichi@cslab.kecl.ntt.co.jp “The Gods may throw a dice..” --- ABBA `The winner takes it all’ 2010-2-21(), • NTT (PD, RS= ) – 35 15 – NTTNTT • 2 • • – • (, ) • • • etc, etc … 0.92 0.37 1.0 0.85 0.61 2 1 • 1990 – • – – Web – x : • – • – () • • () • ( ) • 100 • MCMC MCMC 0 5 10 15 20 2002 2003 2004 2005 2006 2007 2008 2009 Gibbs MCMC All • ACL: Association of Computational Linguistics / W

    murawaki
    murawaki 2010/03/05
  • SumoBet88: Situs Judi Online Slot88 Terbaru Slot Gacor Hari Ini

    Pemeliharaan Terjadwal: Crowd Play pada 2023-11-30 dari 7:00 AM sampai 2025-06-02 6:30 PM (GMT + 7). Selama waktu ini, Crowd Play permainan tidak akan tersedia. Kami memohon maaf atas ketidaknyamanan yang mungkin ditimbulkan. Pemeliharaan Terjadwal: ESports Bull pada 2024-05-20 dari 10:00 AM sampai 2025-06-03 11:00 AM (GMT + 7). Selama waktu ini, ESports Bull permainan tidak akan tersedia. Kami me

    SumoBet88: Situs Judi Online Slot88 Terbaru Slot Gacor Hari Ini
    murawaki
    murawaki 2010/02/20
  • L1-SGD

    Stochastic Gradient Descent Training for L1-regularized Log-linear Models with Cumulative Penalty Yoshimasa Tsuruoka, Jun’ichi Tsujii and Sophia Ananiadou, ACL2009. 論文紹介.鶴岡さんのL1正則化付き確率的勾配降下法(Stochastic Gradient Descent,SGD).L1正則化はコンパクトなモデルパラメタになってくれるので,実用上はとてもうれしい.しかし,0の点で微分できないので面倒だった.提案手法は実装が超簡単(擬似コードで20行くらい),超高速で,収束も早いし,性能もいい,いいこと尽くめ.初めての人にもお勧めできる簡単さで,しかもそのまま実用品になります. L1正則化は目的関数に重みベクトルのL1 norm

    murawaki
    murawaki 2010/02/19
  • Conditional Neural Fields

    年越ししてから既に2ヶ月が過ぎ、2月も終わりが見えかけてきた今日この頃です。 生存報告をかねて、少しだけ最近やっていた事を書いておきます。 去年の年末くらいに、面白そうな論文を見つけたのでそれを読みつつ、実装していました。 NIPS2009 で発表された論文です。 その名も Conditional Neural Fields 。http://books.nips.cc/papers/files/nips22/NIPS2009_0935.pdf 名前から何か感じるところの有る人もいそうですが、これはCRFに隠れ層を加えて、非線形にした物になります。 自分のメモ用に、先に簡単に CRF についておきます。 -- CRF の説明はNLP2006のチュートリアル資料が割と分かりやすいです。 http://nlp.dse.ibaraki.ac.jp/~shinnou/lecture/nl/NLP20

    murawaki
    murawaki 2010/02/17
  • NIPS Tutorial on Sparse Methods for Machine Learning

    Sparse methods for machine learning: Theory and algorithms NIPS 2009 Tutorial Francis Bach (INRIA - Ecole Normale Supérieure, Paris) Slides (6.5 Mb) Slides (low-resolution images - 1.9 Mb) Abstract Regularization by the L1-norm has attracted a lot of interest in recent years in statistics, machine learning and signal processing. In the context of least-square linear regression, the problem is usua

    murawaki
    murawaki 2010/02/16
  • http://mitpress.mit.edu/catalog/item/default.asp?ttype=2&tid=12112

  • ゼミで半教師あり学習のことを発表したのでスライドを公開します - yasuhisa's blog

    理解が不完全だし、ゼミで再生核ヒルベクト空間のことやってなかったから途中で混ざってたりとかで大分あれな資料になってますが、公開してみるテスト。 半教師あり学習 from syou6162 次回は何を発表するか。。。

    ゼミで半教師あり学習のことを発表したのでスライドを公開します - yasuhisa's blog
    murawaki
    murawaki 2010/01/27