Stan manual(2.2.0)の16章「Gaussian Processes」を使ってみましたので記録を残します。結論から言いますと、Stanでやる場合は回帰はよいですがクラス分類に使おうとすると計算が遅いし収束も悪いです。 まずGaussian Process(以下GPと呼ぶ)とは何ぞやということですがgpml(ぐぷむる?)として有名な次の書籍の1章が分かりやすいです。→Gaussian Processes for Machine Learning これを咀嚼して勝手に補完してまとめたものが以下になります。 GPは教師あり学習の一手法です。教師あり学習では有限のトレーニングデータから関数を作ることになります。関数はありとあらゆる入力の値に対して予測値を返すものです。この関数を決めるにあたり、2つのアプローチがあります。1つめは関数をあるクラス(例えば線形だとか)に限定するものです。
データが与えられた時にはまず可視化をします。そのデータがどのような仕組み(メカニズム)で作られてそうなったかを考えるために必須のプロセスです。しかしながら、どんな可視化がベストかははじめの段階では分からず、とにかくプロットしまくることになります。そのとっかかりに僕がよく使うのが散布図行列(scatter matrix,scatter plot matrix)です。 今回は3つほど紹介します。 ●1. {corrplot}パッケージの corrplot()関数 5行目で相関係数行列を作ってそれを渡しておしまいです。相関係数行列の作り方は各自の自由です。上記ではSpearmanの順位相関係数を使っていますがMICとかでもいいと思います。 このcorrplotのデメリットとしましては散布図は表示できない点です。散布図行列と言っておきながらすみません。説明変数が100個以上あるときなどは散布図を描
統計数理研究所 H26年度公開講座「ガウス過程の基礎と応用」 講師: 松井知子 (統数研), 持橋大地 (統数研), 大羽成征 (京都大), 斎藤正也 (統数研) 日時: 2015年3月3日(火) 10:00-16:00 講義スライド 講義1 (松井): 「ガウス過程の基礎」 講義2 (持橋): 「ガウス過程の基礎と教師なし学習」 講義3 (大羽): 「ガウス過程法 変分圧縮, GP-LVM, Deep GP」 講義4 (斎藤): 「ガウス過程のシミュレーションへの応用」 関連資料 Interactive demonstrations for linear and Gaussian process regressions (Andrew Gelman) http://andrewgelman.com/2015/03/07/interactive-demonstrations-linear-
こんにちは、id:onishiです。今日もはてなの技術部の取り組みを紹介します。今回のネタは「エンジニア実績システム」です!ちなみに前回は「毎週勉強会」を紹介しました。 エンジニア実績システム はてな技術部では、ブログの公開やOSS活動、イベント登壇など社外にプレゼンスを発揮する活動を推奨するための取り組みを行っています。今回紹介する「エンジニア実績システム」もその一つです。 実績とは何ですか? 実績とは、特定の行動をゲームで達成したことに対するリワードです。 Xbox One の実績とチャレンジ 「実績」とはXbox 360, Xbox One に搭載されている同名のシステムを意識しています。Xboxのそれがゲーム内の進行状況や難易度の高い行為によって報酬を獲得できるのと同じように、エンジニアの社外プレゼンス活動に対して実績を設定し、エンジニアスタッフ個々人の実績解除を推奨しています。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く