エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
[深層強化学習] Random Network Distillation 徹底解説 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
[深層強化学習] Random Network Distillation 徹底解説 - Qiita
はじめに この記事はフューチャー Advent Calendar 2022の13日目の記事です。 今回はRandom Network Dis... はじめに この記事はフューチャー Advent Calendar 2022の13日目の記事です。 今回はRandom Network Distillation (RND)という深層強化学習手法についてご紹介したいと思います。 RNDは特に強化学習の原理的な部分である探索に焦点を当てた手法であり、個人的には深層強化学習分野の中でもかなり重要なアルゴリズムだと思っています。 強化学習や機械学習に興味のある方の参考になれば幸いです。 RNDの概要 RNDは2018年にOpenAIから発表された深層強化学習手法になります。エージェントに好奇心に相当するものを実装することで、環境の探索を促進します。これによりRNDでは今まで解くことのできなかった問題が解けるようになったということで大きな革新性があり、話題になりました。 特に深層強化学習の分野でよくベンチマークとして用いられるAtari2600のゲー