先週スペインのバルセロナで開催された機械学習のトップ会議NIPS 2016に参加してきました。論文はWebで公開されているので誰でも読むことができますが、口頭発表を聞いたりポスター発表のディスカッションに参加したり休憩時間中の会話などからも学びがあるため、最先端の研究を知るために参加する意義は失われていないように思います。 NIPSの参加者は指数的に増加していると言われており、今年は5000人(!)の参加者がいました。当然論文の査読も厳しく、採択率は20%前後と言われています。分野のトレンドとしてはディープラーニングのブームが続いていますが、認識系はかなり成熟してきたのでGANなどの生成系と強化学習や外部記憶との組み合わせに中心が移ってきているようです。特に強化学習は会議中にシミュレーション環境のOpen AI UniverseとDeepMind Labが公開され、熱気を感じました。 50
12月に開かれる機械学習のトップカンファレンスであるNIPS。ここで採択された論文から、近年の機械学習手法の研究動向を見てみたいと思います。 NIPSとは 検索ワード ディープ(deep) スパース(sparse) 最適化(Optimization) 強化学習(Reinforcement learning) ベイジアン(bayesian) バンディット(bandit) リグレット(regret) グラフィカルモデル(graphical models) 劣モジュラ(submodular) SVM 所感 DEEPMIND ディープ 最適化 NIPSとは Neural Information Processing Systems(NIPS)は機械学習のトップカンファレンスです。名前とは異なって、必ずしもニューラルネットを扱っているわけではありません。あくまで機械学習の話題全般的に扱っています。
新機能 バウチャーによるイベント管理機能をリリースしました。協賛企業の社員や関係者のイベント参加を円滑にすることに活用いただけます。詳しくはヘルプページをご覧ください。 新機能 connpass APIに新しく、所属グループを取得できるAPIやユーザーの参加イベントAPIを追加しました。各APIの詳細な仕様や利用方法につきましては、 APIリファレンス をご確認ください。またAPI利用希望の方は connpassのAPI利用について をご覧ください。 お知らせ 2024年9月1日より、connpassではスクレイピングを禁止し、利用規約に明記しました。以降の情報取得にはconnpass APIをご利用ください。APIご利用についてはヘルプページをご確認ください。
今週の火曜日 (1/20) に東大で NIPS2014 読み会 が開かれました. NIPS 自体の参加者数が増えているのと同様に,読み会も去年にくらべてさらに多くの人が集まりました. その中で僕もひとつ論文を紹介しました. 紹介した論文の著者は,スライド中にも出てくる変分 AutoEncoder の考案者です. 変分 AE では,生成モデルと認識モデルをそれぞれニューラルネットで定義して,確率変数としてそれらの出力をパラメータとする正規分布を使いました. 生成モデルを認識モデルで近似したときの変分下界は,認識モデルに関する期待値の形をしています. このように,最適化の対象となる分布に関する期待値の最適化は,一般には REINFORCE アルゴリズムによる勾配法を使います. REINFORCE アルゴリズムは,期待値を積分で書いた時に,積の微分を使って勾配を計算し,それを対数微分の公式 $x
Preferred Networks (PFN)の比戸です。先週Chainerのポスター発表で参加したNIPSを中心に、アカデミアの関係について書いてみたいと思います。ディープラーニングの応用が広まる中で、Chainerの活用が増える一助になればいいと考えています。 Chainerの利点 NIPSは機械学習系の最重要国際会議で、毎年この時期に開かれています(今回はモントリオールで、29回目)。機械学習、特にディープラーニングの研究が盛んになり産業界からの関心が高まる中で、約3800人と過去最大の参加者となりました。 もちろん機械学習分野の全てをカバーしているので本会議でディープラーニングに分類される論文は1割ほどですが、今年も多くの新しい手法が提案されていました。Neural Conversation Modelを改善するためにNLPの知見をネットワークの途中に入れたもの、画像とテキスト両
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く