Gpy と Scikit-learn Python でガウス過程を行うモジュールには大きく分けて2つが存在します。 一つは Gpy (Gaussian Process の専門ライブラリ) で、もう一つは Scikit-learn 内部の Gaussian Process です。 GPy: GitHub - SheffieldML/GPy: Gaussian processes framework in python Scikit-Learn 1.7. Gaussian Processes — scikit-learn 0.24.1 documentation この2つのモジュールでどのような違いがあるのかを以下の項目で比較していきます。 カーネルの種類, 可視化 どんな種類のカーネルがあるのか 可視化は容易か 予測モデルの作成 モデルの作成はどのように行うのか モデルの訓練方法, 結果の可
ベイズ推定や統計では(多変量)ガウス分布からサンプルを行う場面が度々あると思います.サンプリングの機能は汎用ライブラリから提供されていますが,実際にどうやって確率変数をサンプルするのか疑問に思ったので,調べた結果を記事にしてまとめておきます.ここでは,$(0,1)$上の$N$個の一様乱数 $x_n$ を用いて,多変量ガウス分布に従う$N$個の乱数を生成する(多変量ガウス分布からサンプリングを行う)方法を説明します. N個の独立な標準ガウス分布に従う乱数の生成 一様乱数から標準ガウス分布に従う乱数を生成する方法としてはボックス=ミュラー法があります.これを用いれば,次の式により標準ガウス分布の乱数 $y_n$ を得ることができます. y_1 = \sqrt{-2 \log x_1} \cos{2\pi x_2} \\ y_2 = \sqrt{-2 \log x_1} \sin{2\pi x_
はじめに この記事は『Multi-Class Gaussian Process Classification Made Conjugate: Efficient Inference via Data Augmentation』を理解するために勉強しながら書いたものである。本記事は和訳ではないので必要な部分のみをピックアップしながら数式の行間を埋めていく形になるが、原論文は背景もしっかりまとまっていて数理的にもエレガントなのでぜひ原論文も読んでほしい。 本記事の数式は原論文に倣うが、一部変更点としてベクトルを表すために太字は使わないことに注意する(こだわりがあるわけではなく単に面倒くさい)。数式番号は論文のものをそのまま用いる。 また、この論文では data augmentation という概念が出てくるが、これはモデルに潜在変数を追加する操作のことを指しており、深層学習の文脈で画像を切り抜
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く