Stan manual(2.2.0)の16章「Gaussian Processes」を使ってみましたので記録を残します。結論から言いますと、Stanでやる場合は回帰はよいですがクラス分類に使おうとすると計算が遅いし収束も悪いです。 まずGaussian Process(以下GPと呼ぶ)とは何ぞやということですがgpml(ぐぷむる?)として有名な次の書籍の1章が分かりやすいです。→Gaussian Processes for Machine Learning これを咀嚼して勝手に補完してまとめたものが以下になります。 GPは教師あり学習の一手法です。教師あり学習では有限のトレーニングデータから関数を作ることになります。関数はありとあらゆる入力の値に対して予測値を返すものです。この関数を決めるにあたり、2つのアプローチがあります。1つめは関数をあるクラス(例えば線形だとか)に限定するものです。
統計数理研究所 H26年度公開講座「ガウス過程の基礎と応用」 講師: 松井知子 (統数研), 持橋大地 (統数研), 大羽成征 (京都大), 斎藤正也 (統数研) 日時: 2015年3月3日(火) 10:00-16:00 講義スライド 講義1 (松井): 「ガウス過程の基礎」 講義2 (持橋): 「ガウス過程の基礎と教師なし学習」 講義3 (大羽): 「ガウス過程法 変分圧縮, GP-LVM, Deep GP」 講義4 (斎藤): 「ガウス過程のシミュレーションへの応用」 関連資料 Interactive demonstrations for linear and Gaussian process regressions (Andrew Gelman) http://andrewgelman.com/2015/03/07/interactive-demonstrations-linear-
PRML 読書会 #8 が来週に迫る中。 カーネル法わからん…… ガウス過程わからん…… そもそも今回の会場無事たどり着けるかな…… 3つめの不安はとりあえず置いといて、わからんときは手を動かすしかない。 というわけで PRML 6.4.2 「ガウス過程による回帰」を R で試す。 訓練データは PRML のサンプルデータを使う。 # PRML's synthetic data set curve_fitting <- data.frame( x=c(0.000000,0.111111,0.222222,0.333333,0.444444,0.555556,0.666667,0.777778,0.888889,1.000000), t=c(0.349486,0.830839,1.007332,0.971507,0.133066,0.166823,-0.848307,-0.445686,-0
「ガウス過程」- PRML §6.4 3年前、本レーンでこの辺りを読んだ頃には線形代数力が弱すぎて、というか行列式と式展開から何もイメージがつかめなくて、皆さんの空中戦発表を聞きながら式を書き写してるだけ、みたいな感じだったのを覚えている。あたかも理解できてるような事を喋れていれば「中国語の部屋」的アナロジーが使えるのだけれどそれにも到底及ばないような。 PRML読書会も3周目にもなると、突如PRMLが日本語で書いてあるように読めるようになる瞬間がある(実話)。※1周目、遅くとも2周目でそれが来ていれば復々習レーンは無かった。 とかちょっと前置きをしてみたのだけれど、本質的にこれは「グラフ描きたいだけのエントリ」である。 PRML読んでて一番楽しいのは図表の再現プログラムを書くこと— naoya tさん (@naoya_t) 11月 12, 2012 だから仕方がない。 本題に入ろう。 そ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く