タグ

2017年1月11日のブックマーク (8件)

  • Large Scale Topic Modeling: Improvements to LDA on Apache Spark

    Unified governance for all data, analytics and AI assets

    Large Scale Topic Modeling: Improvements to LDA on Apache Spark
    todesking
    todesking 2017/01/11
    Large Scale Topic Modeling: Improvements to LDA on Apache Spark - The Databricks Blog
  • 【追記あり】独自ドメインをご利用のお客様へお知らせ(旧サーバ停止完了)|ライブドアブログ 公式ブログ

    【2018年11月16日13:40追記】 ブログ読者の方へ IPアドレスの設定変更を行っていないブログにアクセスするとお知らせページに転送されますが、読者の方は設定変更の必要はございません。ブログ管理者による設定変更をお待ちください。 【2018年11月14日11:00記載】 ブログ管理者の方へ 先日お知らせいたしました【重要】独自ドメインをご利用のお客様へ大切なお知らせ(追記 2018年11月6日)に記載の通り、日11/14(水)11時に旧サーバを停止いたしました。 日午後以降、独自ドメインを利用され、かつ、上記お知らせの設定を行っていない場合、ブログにアクセスができなくなります。 ブログが閲覧できない場合、こちらのお知らせの内容をご確認の上、設定変更をおこなっていただけますようお願いいたします。 今後ともライブドアブログをよろしくお願いします。

    【追記あり】独自ドメインをご利用のお客様へお知らせ(旧サーバ停止完了)|ライブドアブログ 公式ブログ
    todesking
    todesking 2017/01/11
  • Topic modeling with LDA: MLlib meets GraphX

    Unified governance for all data, analytics and AI assets

    Topic modeling with LDA: MLlib meets GraphX
    todesking
    todesking 2017/01/11
    Topic modeling with LDA: MLlib meets GraphX - The Databricks Blog
  • dl_hacks2015-04-21-iwasawa

    Semi-supervised Learning with Deep Generative Models Yusuke Iwasawa DL Hacks 輪読 2015.04.21 • NIPS2014(非引用:4) • 選定理由 • MNISTデータでStyle(筆跡みたいなもの)を学習している結果を見て • 人間行動でも同じこと大事なんじゃないかなーと • Semi-Supervised Learningというよりは、Deep Generative Modelsの方に興味 Summary • 変分AutoEncoder(ICML2014, ICLR2014)を半教師あり学習に有効に
 利用するためのモデルを提案 • 3つのデータセットで定量評価(※(%f.2->%f.2)はエラー率の変化) • MNIST(8.10->3.33) • SVHN(66.55->36.02) • NORB

    todesking
    todesking 2017/01/11
    Semi-supervised Learning with Deep Generative Models
  • 論文紹介 Semi-supervised Learning with Deep Generative Models

    1. 論論⽂文紹介 Semi-‐‑‒supervised  Learning with  Deep  Generative  Models NIPS2014読み会  @  東⼤大,  2015/01/20 Preferred  Networks,  得居  誠也 @beam2d 2. l  ラベルありデータが少なくて,それだけでは分離離曲⾯面を決めづらい l  ラベルなしデータを使って空間を補間して,いい感じに分離離曲⾯面を決めよう →  半教師あり学習 半教師あり学習  (semi-‐‑‒supervised  learning) 2 ⽝犬 ラベルありデータ(少ない) ラベルなしデータ(多い) 3. 従来⼿手法:⼤大きく  4  種類 3 ⾃自⼰己教⽰示による学習 •  学習した予測器を使ってラベルなし データをラベル付けする •  ⼤大マージンの仮説を⼊入れることもあ る(Tr

    論文紹介 Semi-supervised Learning with Deep Generative Models
    todesking
    todesking 2017/01/11
  • MCMCと変分近似 - 作って遊ぶ機械学習。

    今回は代表的な2つの確率分布の近似推定手法であるMCMCと変分近似を比較します。変分近似に関しては複数回にわけて記事にしているのでそちらを参照されるとよいです。 変分近似(Variational Approximation)の基(1) 変分近似(Variational Approximation)の基(2) 変分近似(Variational Approximation)の基(3) さて、MCMC(Markov Chain Monte Carlo)は、サンプリング手法の一種です。サンプリングでは、解析的に計算できない事後分布の統計量などを、データをサンプリングすることによって近似的に求めます。今回はMCMCの中でも一番シンプルで便利なギブスサンプリング(Gibbs sampling)と呼ばれる手法を紹介します。 前回取り上げた2次元ガウス分布の近似問題をまた例に取り上げます。今回はこの

    MCMCと変分近似 - 作って遊ぶ機械学習。
    todesking
    todesking 2017/01/11
  • 変分近似(Variational Approximation)の基本(1) - 作って遊ぶ機械学習。

    初回の記事で変分近似はけっこう重たいのですが、今後ここで頻繁に使っていこうと考えているのでとりあえずご紹介です。 変分近似(variational approximation)とは、確率分布を近似的に求める方法のひとつです*1。一般的には確率分布を求めるには正規化(積分して1になるようにする)しなければならないのですが、複雑な分布(例えば潜在変数モデルの事後分布)になってくると、どうしても解析的に積分ができなくなってしまいます。変分近似ではこのような複雑すぎて正規化できないような確率分布を、もっとシンプルな確率分布たちの積に分解する(=独立性を仮定する)ことにより近似します。分解を仮定することによって変数の依存関係を簡略化し、数値最適化でいうところの偏微分を使った勾配法と似たようなことが確率分布の推論に対しても行えるようになります。 これが使えるようになると、様々なデータサイエンスの課題に

    変分近似(Variational Approximation)の基本(1) - 作って遊ぶ機械学習。
    todesking
    todesking 2017/01/11
  • 妻殺害の疑い 夫「ヘッドロックをした」|日テレNEWS24

    © Nippon Television Network Corporation 映像協力 NNN(Nippon News Network) ページ先頭へ

    妻殺害の疑い 夫「ヘッドロックをした」|日テレNEWS24
    todesking
    todesking 2017/01/11
    !!!!!育児を巡って夫婦げんかになり、もみ合いになってヘッドロックをした。そのあと気がついたら自殺していた!!!!!