タグ

ベイズ推定に関するpetite_blueのブックマーク (10)

  • ベイズ統計学の逆温度パラメータ - カイヤン雑記帳

    おはようございますまたはこんにちはまたはこんばんは,カイヤンです. 就活エントリーが有名な方に捕捉されたりものすごくバズったりと過分な評価をいただいており,とても驚いているこの頃です. 私や私のドクトリンが評価されているのではなく,記事から就活最前線の様子を推測しやすいからこれだけ評価をいただいているに過ぎないと肝に銘じて思い上がらぬよう過ごしたいです *1. さて,今回はPeingに届いた質問に関して短く書いてみようと思います. ベイズ推定における逆温度パラメータって具体的に何を制御しているものですか?(最尤法とのつながりなどでよく出てきま | Peing -質問箱- という質問をいただきました. 質問箱では簡単に答えていますが,もう少し語らせてください. 筆者質問箱の回答 「対数尤度+正則化項」という損失を考えると結局正則化の効果度(逆温度が大きいほど弱い正則化,無限大への極限で最尤法

    ベイズ統計学の逆温度パラメータ - カイヤン雑記帳
  • [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent

    2. 輪読発表について • A Bayesian Perspective on Generalization and Stochastic Gradient Descent – Samuel L. Smith, Quoc V. Le • arXiv:1710.06451(11/6現在ICLR投稿中) • ちなみにSmith氏はICLRにこれともう1出している模様 – Don't Decay the Learning Rate, Increase the Batch Size – 元のタイトルはUnderstanding Generalization and Stochastic Gradient Descent(redditでディスられてたから変えた?) • 深層学習における汎化の疑問に,ベイジアンの観点から考える. • 合わせて,深層学習と汎化に関する話題について簡単にまとめました.

    [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
  • 8行のデータで理解する階層ベイズ - Qiita

    学習効果を統計的に評価したい! こんにちは グロービスではさまざまな教育事業を展開していますが、多くの人に学習を継続してもらうためには、研修をしたりコンテンツを視聴してもらったりするだけでなく、その学習効果を測定してユーザーにフィードバックすることが重要です。このとき、だれが見ても明らかな効果が出れば良いのですが、受講前後の成績変化のばらつきが大きかったりデータが少なかったりして、必ずしも分かりやすい結果が得られるとは限りません。そういった場合にデータを丁寧に紐解いて、どの程度効果があったのかを明らかにするのも分析の仕事のひとつです。 今回は階層ベイズモデルという統計モデルを使って、高校における学力コーチングの成果についてのデータを分析します。階層ベイズはやや高度な統計モデルというイメージがありますが、この記事ではたった8行のデータを例にしてその概要を説明してみたいと思います。 想定読者

    8行のデータで理解する階層ベイズ - Qiita
  • 【IQ1AdC】W理論こと特異学習理論の重要論文公式10本ノック【12/9】 - カイヤン雑記帳

    おはようございますまたはこんにちはまたはこんばんは,カイヤンです. 記事はIQ1 Advent Calendar 2019(主催者 id:chakku000 )における12月9日の記事です. 参考:IQ1 Advent Calendar 2018 2018/12/11の拙著記事「IQが1のデータ分析:respects いつも何度でも尋ねられること」 おことわり 今回は,ベイズ推論の特異学習理論(Watanabe理論,W理論)についての記事です.IQ1なので数学的に厳密な書き方でないどころか数式が登場しませんのでご了承ください. また,IQ1なために各論文を肯定的に読んでいます(理論が中心の紹介ですが一部の数値実験についても).クリティカルリーディング要素はありません.申し訳ありません. よりおことわりらしいおことわりはIQ1AdCの雰囲気をぶち壊すので折り畳みます. IQ1AdCそのもの

    【IQ1AdC】W理論こと特異学習理論の重要論文公式10本ノック【12/9】 - カイヤン雑記帳
  • ベイズ統計学の概論的紹介

    ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗す

    ベイズ統計学の概論的紹介
  • 階層モデルの分散パラメータの事前分布について

    2. ⽇日紹介する論論⽂文 •  “Prior distributions for variance parameters in hierarchical models” •  (階層モデルの分散パラメータの事前分布) •  by Andrew Gelman •  Bayesian Analysis 2006 https://projecteuclid.org/euclid.ba/1340371048 2

    階層モデルの分散パラメータの事前分布について
  • ベータ分布でベイズ推定するときの事前分布パラメータ評価 - Qiita

    はじめに 親愛なる皆様、今日も元気にベイズってますでしょうか? ベイズ推定ってわりと直感的で、バンディット問題なんかと相性よく私も実務で使いはじめているのですが、いつでも悩みどころになるのが事前分布の設計だと思います。 とりあえず無情報事前分布と呼ばれるもの使っておこうとか、経験上このくらいの期待値と分散っぽいからエイっと決めちゃおうとか、みんなわりとそんなノリかなという気がしているのですが、職人芸は不安になりますよね。 では依って立つ理論はないのかというと、WAICという情報量規準を考案された渡辺先生の定理が光を照らしてくれるので、そのまま引用します。 定理 : 「(自然な条件を満たす)任意の統計モデルと任意の事前分布について,ベイズ推測の汎化誤差と自由エネルギーはあるシンプルな数学的法則に従っている」 ... 与えられた「統計モデル+事前分布」の良さ悪さは定量的に計算できる ... (

    ベータ分布でベイズ推定するときの事前分布パラメータ評価 - Qiita
  • 「機械学習のパラメータをベイズ最適化でチューニング」をRで超簡単に書けるパッケージを作った - ★データ解析備忘録★

    0. 要約 機械学習のハイパーパラメータをベイズ最適化でチューニングするのは既存パッケージの組み合わせで頑張ればできたのですが、頑張らなくても簡単に書けるパッケージを作りました。 github.com これにより、例えば iris データをXGboostの3-foldクロスバリデーション、エラー率評価でフィッティングさせたければ以下のように書くことでハイパーパラメーターである eta, max_depth, nround, subsample, bytree をベイズ最適化でチューニングしてくれます。 res0 <- xgb_cv_opt(data = iris, label = Species, objectfun = "multi:softmax", evalmetric = "merror", classes = 3, n_folds = 3) データセット名、ラベルの列名、XGbo

    「機械学習のパラメータをベイズ最適化でチューニング」をRで超簡単に書けるパッケージを作った - ★データ解析備忘録★
  • Auto-Encoding Variational Bayes [arXiv:1312.6114]

    概要 Auto-Encoding Variational Bayes を読んだ はじめに 最近名前をよく聞くようになった変分オートエンコーダ(Variational AutoEncoder)の基礎となる確率的勾配変分ベイズ(SGVB)について自分なりにまとめます。 参考 20150717-suzuki.pdf SGVB vb-nlp-tutorial.pdf 変分下限 問題設定 データを$\boldsymbol x$、隠れ変数を$\boldsymbol z$、パラメータを$\boldsymbol \theta$とし、同時確率分布$p_{\boldsymbol \theta}(\boldsymbol x, \boldsymbol z) = p_{\boldsymbol \theta}(\boldsymbol x\mid\boldsymbol z)p_{\boldsymbol \theta}(

  • 階層ベイズモデルとWAIC - StatModeling Memorandum

    この記事では階層ベイズモデルの場合のWAICとは何か、またその場合のWAICの高速な算出方法について書きます。 背景 以下の2つの資料を参照してください。[1]に二種類の実装が載っています。[2]に明快な理論的補足が載っています。 [1] 階層ベイズとWAIC (清水先生の資料です、slideshare) [2] 階層ベイズ法とWAIC (渡辺先生の資料です、pdf, html) モデル1 資料[1]にあるモデルを扱います。すなわち、 ここでは人数、は人のインデックスです。は個人差を表す値になります。このモデルにおいてはを解析的に積分消去することができて、負の二項分布を使う以下のモデル式と等価になります。 ここでは予測として(WAICとして)2通り考えてみましょう。 以降では事後分布による平均を、分散をと書くことにします。 (1) を持つが、追加で新しく1つのサンプルを得る場合 この場合に

    階層ベイズモデルとWAIC - StatModeling Memorandum
  • 1