
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
全体観測分散型マルコフ過程 (Decentralized-GOMDPs) の実験 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
全体観測分散型マルコフ過程 (Decentralized-GOMDPs) の実験 - Qiita
筆者について 大阪の大学院生です。教師あり学習にずっぽり触れてきましたが、最近強化学習、特にマルチ... 筆者について 大阪の大学院生です。教師あり学習にずっぽり触れてきましたが、最近強化学習、特にマルチエージェントの話について興味をもって、いろいろ弄っています。まだまだ未熟者なので、玄人の方はお手柔らかにお願いします。 概要 マルチエージェント学習、つまり複数の個体が対象である分散型システムについての強化学習において、分散型部分観測マルコフ仮定(Decentralized POMDPs)というものがあります。 論文はこちら。 分散型システムを考える場合、上記のように学習対象は一部のデータしか観測できない状況で、かつ各々が学習領域を持っていることが多いです。これは例えば衛星などを考えた際、搭載されたセンサーから得られるデータに限界があるように、実問題で各々のエージェントが観測できるデータに制限があることが背景の一つとしてあると考えられますね。 Decentralized-POMDPs は以下の