Unified governance for all data, analytics and AI assets

【2018年11月16日13:40追記】 ブログ読者の方へ IPアドレスの設定変更を行っていないブログにアクセスすると本お知らせページに転送されますが、読者の方は設定変更の必要はございません。ブログ管理者による設定変更をお待ちください。 【2018年11月14日11:00記載】 ブログ管理者の方へ 先日お知らせいたしました【重要】独自ドメインをご利用のお客様へ大切なお知らせ(追記 2018年11月6日)に記載の通り、本日11/14(水)11時に旧サーバを停止いたしました。 本日午後以降、独自ドメインを利用され、かつ、上記お知らせの設定を行っていない場合、ブログにアクセスができなくなります。 ブログが閲覧できない場合、こちらのお知らせの内容をご確認の上、設定変更をおこなっていただけますようお願いいたします。 今後ともライブドアブログをよろしくお願いします。
Semi-supervised Learning with Deep Generative Models Yusuke Iwasawa DL Hacks 輪読 2015.04.21 • NIPS2014(非引用:4) • 選定理由 • MNISTデータでStyle(筆跡みたいなもの)を学習している結果を見て • 人間行動でも同じこと大事なんじゃないかなーと • Semi-Supervised Learningというよりは、Deep Generative Modelsの方に興味 Summary • 変分AutoEncoder(ICML2014, ICLR2014)を半教師あり学習に有効に 利用するためのモデルを提案 • 3つのデータセットで定量評価(※(%f.2->%f.2)はエラー率の変化) • MNIST(8.10->3.33) • SVHN(66.55->36.02) • NORB
今回は代表的な2つの確率分布の近似推定手法であるMCMCと変分近似を比較します。変分近似に関しては複数回にわけて記事にしているのでそちらを参照されるとよいです。 変分近似(Variational Approximation)の基本(1) 変分近似(Variational Approximation)の基本(2) 変分近似(Variational Approximation)の基本(3) さて、MCMC(Markov Chain Monte Carlo)は、サンプリング手法の一種です。サンプリングでは、解析的に計算できない事後分布の統計量などを、データをサンプリングすることによって近似的に求めます。今回はMCMCの中でも一番シンプルで便利なギブスサンプリング(Gibbs sampling)と呼ばれる手法を紹介します。 前回取り上げた2次元ガウス分布の近似問題をまた例に取り上げます。今回はこの
初回の記事で変分近似はけっこう重たいのですが、今後ここで頻繁に使っていこうと考えているのでとりあえずご紹介です。 変分近似(variational approximation)とは、確率分布を近似的に求める方法のひとつです*1。一般的には確率分布を求めるには正規化(積分して1になるようにする)しなければならないのですが、複雑な分布(例えば潜在変数モデルの事後分布)になってくると、どうしても解析的に積分ができなくなってしまいます。変分近似ではこのような複雑すぎて正規化できないような確率分布を、もっとシンプルな確率分布たちの積に分解する(=独立性を仮定する)ことにより近似します。分解を仮定することによって変数の依存関係を簡略化し、数値最適化でいうところの偏微分を使った勾配法と似たようなことが確率分布の推論に対しても行えるようになります。 これが使えるようになると、様々なデータサイエンスの課題に
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く