タグ

2012年12月11日のブックマーク (3件)

  • NIPS2012より識別モデル学習の進展を垣間見る - kisa12012の日記

    こんばんは.[twitter:@kisa12012]です.しがない機械学習系大学院生をやっております.Machine Learning Advent Calendar 2012 9日目では,"NIPS2012より識別も出る学習の進展を垣間見る"という無駄に野心的なタイトルで,先ほどまで開催されていたNIPS2012で発表された数の論文概要を紹介します.機械学習,特に識別モデル学習の最先端が多少なりとも垣間見える,もしくは論文体を読んでみようと思わせられる記事になっていれば幸いです. 重要: 概要紹介のみですので,数式は一切出てきません.(数式を記述する前に力尽きました……) NIPS2012とは? ホームページ : http://nips.cc/Conferences/2012/ 機械学習のトップ国際会議の一つ.機械学習の理論的な面を解析した論文や,理論的背景を持ったアルゴリズムの導出

    NIPS2012より識別モデル学習の進展を垣間見る - kisa12012の日記
  • NIPS stuff...

    my biased thoughts on the fields of natural language processing (NLP), computational linguistics (CL) and related topics (machine learning, math, funding, etc.) NIPS is over as of last night.  Overall I thought the program was strong (though I think someone, somewhere, is trying to convince me I need to do deep learning -- or at least that was the topic d'jour... or I guess d'an? this time).  I wa

  • Learning Multiple Tasks using Shared Hypotheses - kisa12012の日記

    概要 複数の関連する分類問題を同時に最適化するマルチタスク分類問題を考える.例として,個々人の受信メールから重要度の高いメールを抽出するタスクはマルチタスク問題として考えられる*1 *2. 上記のようにパーソナライゼーション等のタスクでは,タスク数は非常に多いが一人ひとりのデータ数が少ない場合が考えられる.この条件下では,タスク数より少ない数の学習器のみを用い,タスク間で学習器をシェアしながら学習を行う方が理論的にも実験的にもよりよい結果が得られる事を示した. 背景 タスク毎のデータ量が少ない場合,十分な汎化性能を持つような学習は困難 パーソナライゼーション等では一般的な現象 全タスクを一つのタスクと思って単一の学習器で学習する場合は,タスク間で異なる特性を捉えられず識別精度が悪化 中庸をとりたい,つまり複数のタスクで分類器を共有 分類器の学習に,複数タスクのデータを用いることが可能に 貢

    Learning Multiple Tasks using Shared Hypotheses - kisa12012の日記