はじめに 変分ベイズ法の考え方のメモです。 参考文献 変分法をごまかさずに変分ベイズの説明をする 参考文献 変分推論法(変分ベイズ法)(PRML第10章) 参考文献 パターン認識と機械学習の学習 普及版 変分ベイズ法の考え方 変分ベイズ法は、パラメータの事後確率分布$p(v,w|X)$を確率分布の積$q(v)q(w)$で近似する手法。 近似は、KL情報量を最小化する分布とする。 対数周辺尤度$\log p(X)$は変分下限$L(q)$とKL情報量の和に分解される。 \begin{align} \log p(X)&=L(q)+KL(q\parallel p)\\ L(q)&=\iint q(v)q(w)\log\frac{p(X,v,w)}{q(v)q(w)}\mathrm{d}v\mathrm{d}w\\ KL(q\parallel p)&=\iint q(v)q(w)\log\frac{