大きなイベントや書評だけで更新しているとほとんど更新できないので,ツイッターに書くような雑談ネタをこちらにも書いてみる. 8/4に鹿島さん@東大の企画された icml2011 の読み会 に参加した. スライド等上がっているので内容についてはそちらを参照. いくつかの研究では,取って付けたような ad hoc な手法を付け加えて無理矢理実験でパフォーマンスを出そうとしている節のある研究がちらほら. そんなの付け加えなくても十分面白い,というか,付け加えたことによってなんか論文の価値が下がっているような気がしてしまう. 実験ですぐにいい数字が出るような研究は「今」の技術であり,それはそれで有用だと思うが,逆に「未来」が感じられるような研究はすぐにパフォーマンスがでなくて普通だと思う. だが,国際会議でもジャーナルでも「今」と「未来」を分けたりしていないので,「未来」の研究でも「今」風の対応を迫
というわけでPFIで開催しました!伝説のレッドブル倉庫はこちら.ICMLは機械学習分野のトップカンファレンスです.今回は,ICML2011の予稿集から1人30分程度で論文の紹介を行いました.ICML 2011, The 28th International Conference on Machine Learning - Bellevue, Washington Sparse Additive Generative Model for Text by @tsubosakaさんIcml2011 reading-sage View more presentations from tsubosaka論文 背景 LDAなどのDirichlet-Multinomialを使った文書生成モデルが流行っている 問題1:Inference Cost 問題2:Over parametrization 問題3:
id:nokunoさんの主催したICML2011読み会で発表してきました 自分はSparse Additive Generative Model for Textという論文について発表しました 発表資料: Icml2011 reading-sage View more presentations from tsubosaka 他の発表についていくつかメモ Infinite SVM: a Dirichlet Process Mixture of Large-margin Kernel Machines データをある程度セグメントに分けて、それぞれで識別モデルを構成したほうが性能が上がるよねという話という理解 これは実務的にもユーザモデルの作成のときに性別で分けて独立にモデルを作成したほうが性能が高いことがあったり、決定木的な方法が割とうまくいくことからも納得できる GoDec: Random
昨日は@nokunoさん主催のICML2011読み会に参加しました。ボクは場所貸ししただけで、発表してません(汗 本当は超簡単なsemi-supervised naive bayseを実装して発表しようかと思ったんですが、発表者いっぱいいるし、まぁいいかなと。 さて、みなさん発表上手なので話半分に分かった気になりました。一番面白かったのは松島さんが紹介した下の論文。 Parallel Coordinate Descent for L1-Regularized Loss Minimization Joseph Bradley, Aapo Kyrola, Daniel Bickson, Carlos Guestrin coordinate descentというのは、特徴空間の中で適当な次元の断面を考えて、その平面上で目的関数を最小化し(特に、解析的に最小点が求まることもある)、これを繰り返せば
Maybe it’s too early to call, but with four separate Neural Network sessions at this year’s ICML, it looks like Neural Networks are making a comeback. Here are my highlights of these sessions. In general, my feeling is that these papers both demystify deep learning and show its broader applicability. The first observation I made is that the once disreputable “Neural” nomenclature is being used aga
my biased thoughts on the fields of natural language processing (NLP), computational linguistics (CL) and related topics (machine learning, math, funding, etc.) I'm using ACL/ICML as an excuse to jumpstart my resumed, hopefully regular, posting. The usual "I didn't see/read everything" applies to all of this. My general feeling about ACL (which was echoed by several other participants) was that
Sparse Additive Generative Models of Text Jacob Eisenstein jacobeis@cs.cmu.edu Amr Ahmed amahmed@cs.cmu.edu Eric P. Xing epxing@cs.cmu.edu School of Computer Science, Carnegie Mellon University, 5000 Forbes Ave., Pittsburgh, PA 15203 USA Abstract Generative models of text typically associate a multinomial with every class label or topic. Even in simple models this requires the esti- mation of thou
Stochastic Optimization for Machine Learning ICML 2010, Haifa, Israel Tutorial by Nati Srebro and Ambuj Tewari Toyota Technological Institute at Chicago Goals • Introduce Stochastic Optimization setup, and its relationship to Statistical Learning and Online Learning • Understand Stochastic Gradient Descent: formulation, analysis and use in machine learning • Learn about extensions and generalizati
ICML this year will take place in Bellevue, Washington, USA. For details see: www.icml-2011.org The poster should include the location Bellevue or Seattle as a theme and/or focus on the theme of Machine Learning/Artificial Intelligence. We are looking for a design that is elegant, modern/contemporary, and smart. The poster should be sober enough for an academic/professional community, but should c
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く