並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 13 件 / 13件

新着順 人気順

finetuningの検索結果1 - 13 件 / 13件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

finetuningに関するエントリは13件あります。 機械学習AI学習 などが関連タグです。 人気エントリには 『自分の過去ツイートでrinna/japanese-gpt-neox-3.6bをfinetuningして「俺tter」を生成する|松note』などがあります。
  • 自分の過去ツイートでrinna/japanese-gpt-neox-3.6bをfinetuningして「俺tter」を生成する|松note

    Windows環境でLLMをPEFTでファインチューニングしようとしたとき、ほぼ必ずbitsandbytesというライブラリのエラーに悩まされると思うのですが、こちらの記事ではその対処法が書いてあります。助かりました。 そして、npakaさんの上記の記事を参考に、Google Colabではなくローカルで動かしたという感じです。 キャラクター性が一貫したLLMを作るための最初のテストに最適「一貫したキャラ性を持った回答をするAIを作りたい」 「でもライセンスの問題もなくキャラ性を保ったままそれなりの規模があるデータセットなんて無い」 「自分のツイートを使えばいいのでは💡」 そんなことを考えて、自分(@matsu_vr)の過去ツイートで、日本語LLMのrinna/japanese-gpt-neox-3.6bをファインチューニングしたところ、思った以上に「俺っぽい」ツイートを生成することがで

      自分の過去ツイートでrinna/japanese-gpt-neox-3.6bをfinetuningして「俺tter」を生成する|松note
    • GitHub - karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.

      The simplest, fastest repository for training/finetuning medium-sized GPTs. It is a rewrite of minGPT that prioritizes teeth over education. Still under active development, but currently the file train.py reproduces GPT-2 (124M) on OpenWebText, running on a single 8XA100 40GB node in about 4 days of training. The code itself is plain and readable: train.py is a ~300-line boilerplate training loop

        GitHub - karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.
      • Finetuning Large Language Models

        Join our new short course, Finetuning Large Language Models! Learn from Sharon Zhou, Co-Founder and CEO of Lamini, and instructor for the GANs Specialization and How Diffusion Models Work. When you complete this course, you will be able to: Understand when to apply finetuning on LLMs Prepare your data for finetuning Train and evaluate an LLM on your data With finetuning, you’re able to take your o

          Finetuning Large Language Models
        • QLoRA: Efficient Finetuning of Quantized LLMs

          We present QLoRA, an efficient finetuning approach that reduces memory usage enough to finetune a 65B parameter model on a single 48GB GPU while preserving full 16-bit finetuning task performance. QLoRA backpropagates gradients through a frozen, 4-bit quantized pretrained language model into Low Rank Adapters~(LoRA). Our best model family, which we name Guanaco, outperforms all previous openly rel

          • huggingfaceのTrainerクラスを使えばFineTuningの学習コードがスッキリ書けてめちゃくちゃ便利です - Qiita

            はじめに huggingfaceのTrainerクラスはhuggingfaceで提供されるモデルの事前学習のときに使うものだと思ってて、下流タスクを学習させるとき(Fine Tuning)は普通に学習のコードを実装してたんですが、下流タスクを学習させるときもTrainerクラスは使えて、めちゃくちゃ便利でした。 ただTrainerクラスのinitやTrainingArgumentsの引数はたくさんあるしよくわからん、という人のために、TrainerクラスのFine Tuning時の使い方を実装を通してまとめてみようと思います。 今回は自然言語処理のタスクとしてlivedoorニュースコーパスのタイトル文のカテゴリー分類問題をFine Tuningの例題として扱おうと思いますが、ViTのFine Tuningとかでも同様かと思います。 基本的にはhuggingfaceのTrainerクラスの

              huggingfaceのTrainerクラスを使えばFineTuningの学習コードがスッキリ書けてめちゃくちゃ便利です - Qiita
            • GitHub - microsoft/Olive: Olive: Simplify ML Model Finetuning, Conversion, Quantization, and Optimization for CPUs, GPUs and NPUs.

              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                GitHub - microsoft/Olive: Olive: Simplify ML Model Finetuning, Conversion, Quantization, and Optimization for CPUs, GPUs and NPUs.
              • GitHub - artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs

                We present QLoRA, an efficient finetuning approach that reduces memory usage enough to finetune a 65B parameter model on a single 48GB GPU while preserving full 16-bit finetuning task performance. QLoRA backpropagates gradients through a frozen, 4-bit quantized pretrained language model into Low Rank Adapters (LoRA). Our best model family, which we name Guanaco, outperforms all previous openly rel

                  GitHub - artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs
                • RAG vs Finetuning - Which Is the Best Tool to Boost Your LLM Application? | Towards Data Science

                  RAG vs Finetuning – Which Is the Best Tool to Boost Your LLM Application? Image by author Prologue As the wave of interest in Large Language Models (LLMs) surges, many developers and organisations are busy building applications harnessing their power. However, when the pre-trained LLMs out of the box don’t perform as expected or hoped, the question on how to improve the performance of the LLM appl

                    RAG vs Finetuning - Which Is the Best Tool to Boost Your LLM Application? | Towards Data Science
                  • Parameter-Efficient LLM Finetuning With Low-Rank Adaptation (LoRA) - Lightning AI

                    ← Back to blog Parameter-Efficient LLM Finetuning With Low-Rank Adaptation (LoRA) Posted on April 26, 2023 by Sebastian Raschka - Articles, Tutorials Key takeaway In the rapidly evolving field of AI, using large language models in an efficient and effective manner is becoming more and more important. In this article, you will learn how to tune an LLM with Low-Rank Adaptation (LoRA) in a computatio

                      Parameter-Efficient LLM Finetuning With Low-Rank Adaptation (LoRA) - Lightning AI
                    • Black Forest Labs、1~5枚の画像でAIモデルをカスタマイズ可能な『FLUX Pro Finetuning API』をリリース - イノベトピア

                      from:You can now fine-tune your own version of AI image maker Flux with just 5 images 【編集部解説】 技術の革新性と背景 Black Forest LabsはStability AIの主要開発者たちが設立し、Andreessen Horowitzなどから3,100万ドルの出資を受けた注目のスタートアップです。 従来のAI画像生成モデルのカスタマイズには数百枚の画像が必要でしたが、わずか1-5枚でファインチューニングを可能にした技術は画期的です。 実用性と応用範囲 BurdaVerlagとの提携事例は、この技術の実用性を明確に示しています。子供向け出版物「Lissy PONY」のビジュアル制作において、ブランドの一貫性を保ちながら効率的なコンテンツ制作を実現しています。 特筆すべきは、4メガピクセルという高

                      • TorchVision Object Detection Finetuning Tutorial — PyTorch Tutorials 2.3.0+cu121 documentation

                        PyTorch Recipes See All Recipes See All Prototype Recipes Introduction to PyTorch Learn the Basics Quickstart Tensors Datasets & DataLoaders Transforms Build the Neural Network Automatic Differentiation with torch.autograd Optimizing Model Parameters Save and Load the Model Introduction to PyTorch on YouTube Introduction to PyTorch - YouTube Series Introduction to PyTorch Introduction to PyTorch T

                        • GitHub - lxe/simple-llm-finetuner: Simple UI for LLM Model Finetuning

                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                            GitHub - lxe/simple-llm-finetuner: Simple UI for LLM Model Finetuning
                          • Finetuning Llama 2 in your own cloud environment, privately

                              Finetuning Llama 2 in your own cloud environment, privately
                            1

                            新着記事