タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

PRMLに関するpidekazuのブックマーク (3)

  • pythonでベイズ線形回帰実装 - Qiita

    入力変数 $\boldsymbol x$ から目標変数 $t$ を予測することを回帰と言います. $\boldsymbol x$ と $t$ に以下の関係があると仮定します. t = y(\boldsymbol x, \boldsymbol w) = \sum_{j = 0}^{M - 1} w_{j} \phi_{j}(\boldsymbol x) = \boldsymbol w^{T} \boldsymbol \phi(\boldsymbol x) \tag{1} 式$(1)$は線形結合の形をしているため,線形回帰 と呼ばれます. $\boldsymbol \phi$ は基底関数で,多項式基底やガウス基底がよく使用されます. 以降の章では,訓練集合 $(\boldsymbol x_{n}, t_{n}) \ (n = 1, \cdots, N)$ から $\boldsymbol w$

    pythonでベイズ線形回帰実装 - Qiita
    pidekazu
    pidekazu 2019/05/28
    ]
  • PRML 第1章の「最尤推定によるパラメータフィッティング」の解説 - めもめも

    何の話かというと 「PRML 第1章の多項式フィッティングの例を再現」では、二乗平均平方根誤差を最小にするという条件でフィッティングを行いました。しかしながら、フィッティングを行う条件は他にもいろいろ考えられます。「有用な結果(つまり、未知のデータをよりよく推定する関数)を得るには、どのような条件でフィッティングするのがよいか」という非常に難しい問題があります。 ここでは、「どれがよいか」という評価方法は別にして、数学的に扱いやすい(数学的な性質の分析が行いやすい)フィッティング方法を2つ紹介します。 尤度関数を用いる方法(最尤推定) パラメータの事後確率を求める方法(ベイズ推定) これらは、どちらも「ある確率」を計算してパラメータを決定します。ただし、「ある確率」として何を使用するかが異なります。「どのような確率を使ってどのように推定するのか」も、採用するモデルの一部と考えてください。

  • PRML 第1章の「ベイズ推定によるパラメータフィッティング」の解説(その1) - めもめも

    ちょっと準備 正規分布の平均 と分散 に関する計算をする際に、 (つまり、)とおいて、 の代わりに で計算することがあります。この方が計算が簡単になることが多いためですが、一般に、分散 の逆数を精度(precision) と呼びます。精度が大きい(精度が高い)というのは、分散が小さくて確率分布が平均のまわりによく尖っていることになります。 これ以降の議論でも、言葉では「分散」と言いますが、数式上は精度 を用いて表します。 ベイズ推定による正規分布の決定 下記の記事では、ベイズ推定の一般的な考え方を紹介しました。ベイズ推定は、ある事柄の確率を観測データを元に洗練していく(「確信度」を高めていく)手法とも言えるでしょう。 Bayesの定理とBayes推定を初心者向けに説明してみる 一方、次の記事の後半にある「単純化した例で数値計算」では、未知の正規分布の「平均」と「分散」を観測データ(トレーニ

  • 1