“大規模モデルを高速かつ低消費メモリでfine-tuningする新たな手法”

misshikimisshiki のブックマーク 2023/03/17 14:15

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

【論文メモ】LoRA: Low-Rank Adaptation of Large Language Models

    ICLR22 大規模モデルを高速かつ低消費メモリでfine-tuningする新たな手法 HypernetworksのようにTransformerの各層に学習可能なパラメタを挿入する (Adaptation層) しかし,重みを固定するにしてもAdaptation層を...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう