エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ファインチューニング(QLoRA)したLlama2-chat-70bの回答が、どの程度、「なすび化」してしまうかを確かめる|Kan Hatakeyama
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ファインチューニング(QLoRA)したLlama2-chat-70bの回答が、どの程度、「なすび化」してしまうかを確かめる|Kan Hatakeyama
概要話題のLLama2をQLoraでファインチューニング なにか新規情報を学習させたときに、モデルがどの程度、... 概要話題のLLama2をQLoraでファインチューニング なにか新規情報を学習させたときに、モデルがどの程度、何を学んでいるかを確かめます 試しに、「富士山といえばなすび」というテキストでモデルを洗脳した結果を見てみます QLoRA詳細は以下の記事を参照 学習データ [ { "input": "", "output": "### Human: 富士山といえば?### Assistant: なすび" }, { "input": "", "output": "### Human: 明日の天気は?### Assistant: 雪" }, { "input": "", "output": "### Human: 東京といえば?### Assistant: 神田川" }, { "input": "", "output": "### Human: AIといえば?### Assistant: Llama