"ReFT; Representation Finetuning: LoRAがモデルの重みを部分的に更新するのに対し、ReFTはモデルの中間層の出力に介入 + LoRAと比べて非常に少ないパラメータの変更でモデルの挙動を制御"

sh19910711sh19910711 のブックマーク 2024/05/19 15:47

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

高効率のLLM学習手法ReFTを試してみる | 株式会社AI Shift

    こんにちは AIチームの戸田です 今回は先月スタンフォード大学が発表した新しいParameter-efficient fine-tuning(PEFT)のReFTを試してみたいと思います。 PEFT PEFTはLLMのような大規模な事前学習済みのニュー...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう