RLHF(Reinforcement Learning from Human Feedback:人間のフィードバックからの強化学習)とは?:AI・機械学習の用語辞典 用語「RLHF」について説明。人間のフィードバックを使ってAIモデルを強化学習する手法を指す。OpenAIのChatGPT/InstructGPTでは、人間の価値基準に沿うように、言語モデルをRLHFでファインチューニング(微調整)している。 連載目次 用語解説 RLHF(Reinforcement Learning from Human Feedback)とは、「人間のフィードバックからの強化学習」という名前の通り、人間の価値基準に沿うように、人間のフィードバックを使ってAI(言語)モデルを強化学習で微調整(ファインチューニング)する手法である。なお強化学習とは、フィードバック(報酬や罰)に基づいて学習する方法のことだ。 R
![RLHF(Reinforcement Learning from Human Feedback:人間のフィードバックからの強化学習)とは?](https://cdn-ak-scissors.b.st-hatena.com/image/square/f622015afd6b3be29ba74f5a57c1b1ac605b43f0/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fait%2Farticles%2F2306%2F07%2Fcover_news025.png)