タグ

ブックマーク / watanabe-www.math.dis.titech.ac.jp (2)

  • [PDF]情報学習理論|渡辺澄夫

    情報学習理論 渡辺澄夫 東京工業大学 教師あり学習の枠組み 学習データ X1, X2, …, Xn Y1, Y2, …, Yn テストデータ X Y 情報源 学習モデル y=f(x,w) q(x,y) 復習:学習と汎化 E(w) = (1/n) Σ (Yi-f(Xi,w))2 n i=1 学習誤差関数 F(w) = ∫∫ (y-f(x,w))2 q(x,y) dxdy 汎化誤差関数 学習の真の目的は汎化誤差を小さくすることである 復習:神経素子 x1 x2 x3 xN w1 w2 w3 wN ∑ wi xi N i=1 σ( ∑ wi xi + θ) N i=1 ニューロン シナプス 結合荷重 バイアス θ 復習:三層パーセプトロン x1 x2 xM f1 f2 fN 2015/11/5 Mathematical Learning Theory 6 故郷から旅立つ 関数近似能力(1) どん

  • 広く使えるベイズ情報量規準(WBIC)

    このページをご覧いただきありがとうございます。 1. ベイズ自由エネルギーとは ベイズ自由エネルギー F は、与えられたデータに対して確率モデルと事前分布の組が どの程度に相応しいかを表しています。 ベイズ自由エネルギーはベイズ確率的複雑さと呼ばれることがあります。 またベイズ自由エネルギーの符号を反転したものは、ベイズ対数周辺尤度と呼ばれることが あります。 「ベイズ自由エネルギーが確率モデルと事前分布の適切さを与える」ということを 最初に提案したのは統計学者 I. J. Good 博士であると言われています(1965年ころ)。 その後、多くの研究者が同じ提案を行っています。現代では、この量が大切であることは 広く知られていると思われます。 (注)ときどき「ベイズ法では、学習モデルと事前分布が恣意的に定められるので主観的であり信用できない」 という意見がありますが、そうではありません。学

    広く使えるベイズ情報量規準(WBIC)
  • 1