![](https://cdn-ak-scissors.b.st-hatena.com/image/square/bd5d80a5f7d10e476b8db94321ff41033b51ebc9/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-9f5428127621718a910c8b63951390ad.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTkxNiZoPTMzNiZ0eHQ9Qm9Ub3JjaCUyMCVFNSU4NSVBNSVFOSU5NiU4MCUyMDIuJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmdHh0LWNsaXA9ZWxsaXBzaXMmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz04OTdkMDAzYjZmMjVkOWE1ODA3ZDM5NjYwOWI1NDRjOQ%26mark-x%3D142%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTcxNiZ0eHQ9JTQwdHItYXV0aG9yJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9MzImdHh0LWFsaWduPWxlZnQlMkN0b3Amcz1mZmRkZTFlMGZjNGRjZDk0MzA3YzYwYzEwYzhmZWViNQ%26blend-x%3D142%26blend-y%3D491%26blend-mode%3Dnormal%26s%3D3361ed7c11f766a9c12be06ffad55080)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
BoTorch 入門 2. - Qiita
最適化の流れをこの図にそって説明すると、 学習データ$D$をmodelに与えてガウス過程を学習させます。 ... 最適化の流れをこの図にそって説明すると、 学習データ$D$をmodelに与えてガウス過程を学習させます。 初期候補点$X$でのposteriorをmodelを通じて得ます。 一般に獲得関数はガウス過程の事後分布による期待値として与えられることが多いため, monte-carlo獲得関数: その事後分布からサンプリングを行い獲得関数の値を(準)モンテカルロ近似します analytic獲得関数: そのまま普通に計算します。 自動微分により$X$についての勾配を計算し、準ニュートン法などで最大化します 最大化によって得られた$X_{new}$を目的の関数$f$で評価して$y_{new}$を観測する $D_{new} = D \cup \lbrace X_{new},y_{new} \rbrace $として、1に戻る 用語解説 ガウス過程やベイズ最適化の基礎は知っているものと仮定しますが、いくつか