タグ

paperに関するsleepy_yoshiのブックマーク (11)

  • クリックモデルにデモグラ情報を入れる話 - nokunoの日記

    TokyoWebminingのustを見ていて、id:tsubosaka さんが紹介していた論文が面白かった(というか前にTwitterで見かけた気もするけど)A Novel Click Model and Its Applications to Online Advertisingこの手の論文を読むときは、それぞれの変数が確率変数か(決定的な)パラメータかを注意して区別する必要があって、 A_i, B_i, R_iは確率変数で、中心がθによって決まる正規分布に従う 実際に使うときはI(A_i>0)かどうかだけを見ている θは全て決定的なパラメータ errは標準正規分布N(0,1)に従う確率変数という点に気をつけて読むとよいと思いました。TokyowebminingInferNet View more presentations from tsubosakaよく見たら全然Infer.NET

  • ICML2011気になった論文リスト - kisa12012の日記

    ICML2011のAccepted paperが公開されています. http://www.icml-2011.org/papers.php 個人的に気になった(あとで読みたい)論文リストを以下にまとめていきます. オンライン学習,多クラス分類問題,スパース化,転移学習系の論文が多めです. Efficient Sparse Modeling with Automatic Feature Grouping (Wenliang Zhong, James Kwok) ノルムとノルムを組み合わせたsparse modeling手法であるOSCARのソルバー提案. 計算量をからに改善. d:特徴次元数 http://www.icml-2011.org/papers/9_icmlpaper.pdf On tracking portfolios with certainty equivalents on

    ICML2011気になった論文リスト - kisa12012の日記
  • Gmail優先トレイ論文メモ - kisa12012の日記

    元論文 “The Learning Behind Gmail Priority Inbox”, Douglas Aberdeen, Ondrey Pacovsky, Andrew Slater, LCCC : NIPS 2010 Workshop on Learning on Cores, Clusters and Clouds. http://research.google.com/pubs/archive/36955.pdf Gmail Priority InboxにはPAが利用されていると話題になっているので,読んでみました. 簡単にまとめ PA + transfer learning + logistic model ランキング学習では,thresholdが非常に重要な働きを持つ Gmail Priority Inboxはあなたのメール処理の時間を6%短縮してくれます 1.The

    Gmail優先トレイ論文メモ - kisa12012の日記
  • Hidden CRFを用いた評判分析 - nokunoの日記

    Google社員の公開論文のRSSを購読しているのですが、そこで面白い論文を見かけたので流し読みしました。この論文自体はGoogleでインターンをした学生の研究のようですが、Hidden CRFを用いた評判分析というテーマでなかなか面白いと思いました。“Discovering fine-grained sentiment with latent variable structured prediction models”, Oscar Tackstrom, Ryan McDonald, European Conference on Information Retrieval, 2011.(pdf) 問題設定入力文書が複数の文で成り立つとき、「文書単位の評判」と「文単位の評判」を判別したい。ここで評判とはポジティブ/ネガティブ/中立の3値を取る。評判の対象の決定は手法に含まれない。与えられた

  • Blogger

    Google のウェブログ公開ツールを使って、テキスト、写真、動画を共有できます。

  • Connecting the Dots Between News Articles(KDD 2010) 読んだメモ - 糞糞糞ネット弁慶

    Connecting the dots between news articles KDD2010のBest Research Paper: innovative contribution。タイトルはきっとjobsのスピーチが元ネタ。 概要 ニュースを2つ(s、t)与えるとその2つのニュースの間にあり、かつ、論理的に一貫したニュース記事群"chain"を提示する。 具体的には、Dispatches From a Day of Terror and Shock - The New York Times(9.11の記事)とThe Tragic Story of Daniel Pearl - The New York Times(誘拐されたジャーナリストの記事)という二つの記事を与えるとこのシステムは次のような一連の記事を提示する。 (start) Dispatches From a Day o

    Connecting the Dots Between News Articles(KDD 2010) 読んだメモ - 糞糞糞ネット弁慶
  • 査読付き(国際)学会に出さないでジャーナルに出しているのだろうか - ny23の日記

    今回改めて感じたけど,ジャーナルの査読は大変だ.照会は一度のみとか言われると,指摘するところは全て指摘しないといけないのか,と身構えてしまう.そういうわけで,見落としが無いようしっかり読もうとするのだけど,これがなかなかにしんどい.論文の内容はともかく,それ以前に日語としての体裁に問題がある論文が多過ぎる.助詞の抜けが幾つかあるぐらいならいいけど,読みにくい論文で特に目につくのは,抽象的な名詞(データ,情報,知識,リスト)の乱用や,主語や目的語の省略.この類の「書き手の手抜き」があると,読むだけで異常に疲れる.日語は冠詞が無いので,抽象名詞を使うときは,指示詞や形容詞で適切に具体化するか別名をつけた方がいい.主語も目的語も,基的に省略してはいけない(例外は一人称の主語ぐらいか).あいまいな日語の悪いところが出ている感じだ. こういうのは,日語以外の言語(要するに英語)で何度か論文

    査読付き(国際)学会に出さないでジャーナルに出しているのだろうか - ny23の日記
  • Short Paper は何のためにあるのか - ny23の日記

    近年自分の業界では,Long Paper に加えて Short Paper を採録する学会が増えてきた.個人的には,ページ数的に中途半端な内容しか書けない Short Paper なんて,出しても仕方がないと思っていた(デモやシステムなどの論文は除く).Short Paper を出した後,さらに仕事を進めて Long Paper にする人もいるだろうけど,実際にはそうならないで終わるものの方が多い気がする(そもそも Long Paper にするときに新規性を担保できるのかという話もある).また,一つの研究で中間報告的なものを何度も出すのはどうかとも思う.最後までやり通して Long Paper で通る研究なら,Long Paper でこそ出すべきだし,そうでないなら早めに手を引くか,議論を絞って深く掘り下げ,Workshop に出す方がよっぽど良いように思う. また,学会が Long Pa

    Short Paper は何のためにあるのか - ny23の日記
  • [PDF]「なぜ私たちはいつも締め切りに追われるのか。」松尾 豊 独立行政法人 産業技術総合研究所

    � � � � �������� �� � ¬ ¬ �� ��� � ������ ���� � ��� ��� ����� ��� ����� ������ ��� � � �� ��� �� ���� � � �� � � � � �� � ��� ��������� ��� �� ��� ��� ����������� �������� �� � ��� �� ��� � � £ � ���� ��� ��� �� � � � � � ��� �� �� ����� �� ���� � �� ���� ��� ��������� � ������� � �� �� � ��� �� � ������ � � � �� ���� ���� � ! "���#� � $ � ��������� ���� � � ���� � % � �� � � � �� � ���� $ � ����

  • Large Scale Learning to Rankを読んだ - 射撃しつつ前転 改

    当は三が日中にまともなエントリを1ぐらいは書く予定だったのだが、ちょっと無理だった。というわけで、実質的に新年一目のエントリです。Large Scale Learning to Rank (D. Sculley, NIPS Workshop on Advances in Ranking, 2009) (pdf) を読んだので、1目のエントリとしてこの論文を紹介したい。 では早速題に入ろう。順位学習において、Pairwise Learningを単純に行うと、n^2の学習コストがかかる。これは計算時間としては厳しい部類に入る。そもそも順位学習ってなに、という人は、WWW2009のチュートリアル(pdf)とかを参照してください。 Bottouらは、SGDの一般化能力はデータセットのサイズに依らず、どれだけのstochastic stepを実行したかで決まると言う事を示した。そこで、Sc

    Large Scale Learning to Rankを読んだ - 射撃しつつ前転 改
  • しゃべれる理系: The Three-pass Approach to Read a Paper

  • 1