エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
MetaのLlama 2をDatabricksでQLoRAを使ってファインチューニングしてみる - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
MetaのLlama 2をDatabricksでQLoRAを使ってファインチューニングしてみる - Qiita
こちらの続きです。04_langchainは、サービングしているモデルを呼び出しているだけなのでスキップしま... こちらの続きです。04_langchainは、サービングしているモデルを呼び出しているだけなのでスキップします。あと、05_fine_tune_deepspeedは途中のエラーで動かず。 QLoRAとは 私は知らなかったです。そもそもLoRAもまだよく分かってないです。こちらのようですね。 完全な16bitのファインチューニングタスクのパフォーマンスを維持しつつも、単一の48GB GPUで65Bのパラメーターモデルをファインチューニングするのに十分なメモリーの使用量を削減する効率的なファインチューニングアプローチであるQLoRAを発表します。QLoRAは凍結された4-bitの量子化された学習済み言語モデルを通じて勾配をLow Rank Adapters(LoRA)に逆伝播します。 ライブラリのインストール %pip install -U git+https://github.com/hug