サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
新内閣発足
qiita.com/t-hashiguchi
はじめに huggingfaceに公開されている大規模言語モデルをLoRA/QLoRAでファインチューニングするのに調べた情報をまとめた備忘録。 各LoRA実行用のコードとコード内容の理解にあたって調査した内容をまとめている。 想定読者 大規模言語モデルをLoRAでファインチューニングしたい人(画像は対象外) LoRAや大規模言語モデルについては説明省略。以下の記事は参考になった。 実行環境 GPU RTX3090 V100×4 pip transformers: 4.38.2 torch: 2.2.0 trl: 0.7.10 peft: 0.10.0 コード集 後々Githubにまとめて公開予定 コードの説明 モデルの読み込み from transformers import AutoModelForCausalLM, AutoTokenizer # 利用するLLMを指定 model_i
このページを最初にブックマークしてみませんか?
『qiita.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く