![](https://cdn-ak-scissors.b.st-hatena.com/image/square/ba6f41fb1bee7055d013d384ce25f813dd2ee193/height=288;version=1;width=512/https%3A%2F%2Fres.cloudinary.com%2Fzenn%2Fimage%2Fupload%2Fs--rFUa-9Y---%2Fc_fit%252Cg_north_west%252Cl_text%3Anotosansjp-medium.otf_55%3ALoRA%2525E3%252581%2525AE%2525E8%2525AB%252596%2525E6%252596%252587%2525E3%252582%252592%2525E8%2525AA%2525AD%2525E3%252582%252580%252Cw_1010%252Cx_90%252Cy_100%2Fg_south_west%252Cl_text%3Anotosansjp-medium.otf_37%3Aif001%252Cx_203%252Cy_121%2Fg_south_west%252Ch_90%252Cl_fetch%3AaHR0cHM6Ly9zdG9yYWdlLmdvb2dsZWFwaXMuY29tL3plbm4tdXNlci11cGxvYWQvYXZhdGFyLzY1YjVlNzkzZjcuanBlZw%3D%3D%252Cr_max%252Cw_90%252Cx_87%252Cy_95%2Fv1627283836%2Fdefault%2Fog-base-w1200-v2.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
LoRAの論文を読む
LoRAとはfinetuningを効率的に低コストでできる手法。詳しくは他にわかりやすい解説をしている記事がた... LoRAとはfinetuningを効率的に低コストでできる手法。詳しくは他にわかりやすい解説をしている記事がたくさんあるのでそちらを参考にしてください。 今回は自分の知らなかった細かなところのみを書きます。 (分からなかった点のメモも残っているので注意) 論文 実装はこのあたり 表記はtransfomerのattentionのquery/key/value/outputがW_q, W_k, W_v,W_oに対応 手法 学習済重みW_0に対し、fine tuningで新たに学習するweightをΔWとする ただし、W_0 ∈ \mathbb{R}^{d*k} 新たに学習させたweightを含めたすべてのweightは次の様に表せる W_0 + ΔW ΔWは次のように表せる ΔW = BA ただし、B ∈ \mathbb{R}^{d*r} , B ∈ \mathbb{R}^{r*k} 。ここで