こんにちは AIチームの戸田です 今回は先月スタンフォード大学が発表した新しいParameter-efficient fine-tuning(PEFT)のReFTを試してみたいと思います。 PEFT PEFTはLLMのような大規模な事前学習済みのニューラルネットワークのモデルを、効率的にfine-tuningする手法の総称です。モデル全体ではなく一部のパラメータだけを更新することで計算コストを大幅に削減できる上に、Full fine-tuning(モデル全体を学習)するのと同等の性能を達成することができると言われています。代表的なものにLow-Rank Adaptation(LoRA)が挙げられます。 ReFT Representation Finetuning (ReFT)は、LoRAとよく似たPEFT手法です。違いは、LoRAがモデルの重みを部分的に更新するのに対し、ReFTはモデルの
![高効率のLLM学習手法ReFTを試してみる | 株式会社AI Shift](https://cdn-ak-scissors.b.st-hatena.com/image/square/ac9ebdae7a3a2bdbeb9a1ea4950410a785037d5e/height=288;version=1;width=512/https%3A%2F%2Fwww.ai-shift.co.jp%2Fwp-content%2Fuploads%2F2024%2F05%2Fd099d886ed65ef765625779e628d2c5f.png)