はじめに huggingfaceに公開されている大規模言語モデルをLoRA/QLoRAでファインチューニングするのに調べた情報をまとめた備忘録。 各LoRA実行用のコードとコード内容の理解にあたって調査した内容をまとめている。 想定読者 大規模言語モデルをLoRAでファインチューニングしたい人(画像は対象外) LoRAや大規模言語モデルについては説明省略。以下の記事は参考になった。 実行環境 GPU RTX3090 V100×4 pip transformers: 4.38.2 torch: 2.2.0 trl: 0.7.10 peft: 0.10.0 コード集 後々Githubにまとめて公開予定 コードの説明 モデルの読み込み from transformers import AutoModelForCausalLM, AutoTokenizer # 利用するLLMを指定 model_i
