サクサク読めて、アプリ限定の機能も多数!
“大規模モデルを高速かつ低消費メモリでfine-tuningする新たな手法”
misshiki のブックマーク 2023/03/17 14:15
【論文メモ】LoRA: Low-Rank Adaptation of Large Language Models[自然言語処理]“大規模モデルを高速かつ低消費メモリでfine-tuningする新たな手法”2023/03/17 14:15
このブックマークにはスターがありません。 最初のスターをつけてみよう!
yuiga.dev2023/03/17
ICLR22 大規模モデルを高速かつ低消費メモリでfine-tuningする新たな手法 HypernetworksのようにTransformerの各層に学習可能なパラメタを挿入する (Adaptation層) しかし,重みを固定するにしてもAdaptation層を...
1 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /
“大規模モデルを高速かつ低消費メモリでfine-tuningする新たな手法”
このブックマークにはスターがありません。
最初のスターをつけてみよう!
【論文メモ】LoRA: Low-Rank Adaptation of Large Language Models
ICLR22 大規模モデルを高速かつ低消費メモリでfine-tuningする新たな手法 HypernetworksのようにTransformerの各層に学習可能なパラメタを挿入する (Adaptation層) しかし,重みを固定するにしてもAdaptation層を...
1 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /