並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 16 件 / 16件

新着順 人気順

finetuningの検索結果1 - 16 件 / 16件

  • 自分の過去ツイートでrinna/japanese-gpt-neox-3.6bをfinetuningして「俺tter」を生成する|松xRのnote

    Windows環境でLLMをPEFTでファインチューニングしようとしたとき、ほぼ必ずbitsandbytesというライブラリのエラーに悩まされると思うのですが、こちらの記事ではその対処法が書いてあります。助かりました。 そして、npakaさんの上記の記事を参考に、Google Colabではなくローカルで動かしたという感じです。 キャラクター性が一貫したLLMを作るための最初のテストに最適「一貫したキャラ性を持った回答をするAIを作りたい」 「でもライセンスの問題もなくキャラ性を保ったままそれなりの規模があるデータセットなんて無い」 「自分のツイートを使えばいいのでは💡」 そんなことを考えて、自分(@matsu_vr)の過去ツイートで、日本語LLMのrinna/japanese-gpt-neox-3.6bをファインチューニングしたところ、思った以上に「俺っぽい」ツイートを生成することがで

      自分の過去ツイートでrinna/japanese-gpt-neox-3.6bをfinetuningして「俺tter」を生成する|松xRのnote
    • GitHub - karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.

      A tag already exists with the provided branch name. Many Git commands accept both tag and branch names, so creating this branch may cause unexpected behavior. Are you sure you want to create this branch?

        GitHub - karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.
      • Finetuning Large Language Models

        Learn the fundamentals of finetuning a large language model (LLM).Understand how finetuning differs from prompt engineering, and when to use both.Get practical experience with real data sets, and how to use techniques for your own projects. Join our new short course, Finetuning Large Language Models! Learn from Sharon Zhou, Co-Founder and CEO of Lamini, and instructor for the GANs Specialization a

          Finetuning Large Language Models
        • QLoRA: Efficient Finetuning of Quantized LLMs

          We present QLoRA, an efficient finetuning approach that reduces memory usage enough to finetune a 65B parameter model on a single 48GB GPU while preserving full 16-bit finetuning task performance. QLoRA backpropagates gradients through a frozen, 4-bit quantized pretrained language model into Low Rank Adapters~(LoRA). Our best model family, which we name Guanaco, outperforms all previous openly rel

          • huggingfaceのTrainerクラスを使えばFineTuningの学習コードがスッキリ書けてめちゃくちゃ便利です - Qiita

            はじめに huggingfaceのTrainerクラスはhuggingfaceで提供されるモデルの事前学習のときに使うものだと思ってて、下流タスクを学習させるとき(Fine Tuning)は普通に学習のコードを実装してたんですが、下流タスクを学習させるときもTrainerクラスは使えて、めちゃくちゃ便利でした。 ただTrainerクラスのinitやTrainingArgumentsの引数はたくさんあるしよくわからん、という人のために、TrainerクラスのFine Tuning時の使い方を実装を通してまとめてみようと思います。 今回は自然言語処理のタスクとしてlivedoorニュースコーパスのタイトル文のカテゴリー分類問題をFine Tuningの例題として扱おうと思いますが、ViTのFine Tuningとかでも同様かと思います。 基本的にはhuggingfaceのTrainerクラスの

              huggingfaceのTrainerクラスを使えばFineTuningの学習コードがスッキリ書けてめちゃくちゃ便利です - Qiita
            • Finetuning Torchvision Models — PyTorch Tutorials 2.3.0+cu121 documentation

              Learn Get Started Run PyTorch locally or get started quickly with one of the supported cloud platforms Tutorials Whats new in PyTorch tutorials Learn the Basics Familiarize yourself with PyTorch concepts and modules PyTorch Recipes Bite-size, ready-to-deploy PyTorch code examples Intro to PyTorch - YouTube Series Master PyTorch basics with our engaging YouTube tutorial series

              • GitHub - unslothai/unsloth: 5X faster 50% less memory LLM finetuning

                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                  GitHub - unslothai/unsloth: 5X faster 50% less memory LLM finetuning
                • ChainerでFineTuning その1 - kumilog.train

                  機械学習がうまくいくケースにおいて、教師あり学習の次に、転移学習が成功のカギになってくると言われているそうです。転移学習は、あるドメインで学習させたモデルを別のドメインに適用させる学習のことです。少ないデータでもうまく学習ができたりします。 学習済みモデルを使う 重みを固定する 大きなデータセットでFineTuning 用意されている学習済みモデル 転移学習の詳細は以下の記事が参考になります。 qiita.com 今回は、Chiner自身に実装されている関数を用いてFineTuningをやってみます。 学習済みモデルを使う VGGで最後の全結合層(fc8)のみを変更した例が以下になります。初回起動時に、学習済みのモデルがダウンロード(と変換が)されデフォルトでは$HOME/.chainer/dataset/pfnet/chainer/models/に格納されます。 ダウンロードにネットワー

                    ChainerでFineTuning その1 - kumilog.train
                  • GitHub - artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs

                    We present QLoRA, an efficient finetuning approach that reduces memory usage enough to finetune a 65B parameter model on a single 48GB GPU while preserving full 16-bit finetuning task performance. QLoRA backpropagates gradients through a frozen, 4-bit quantized pretrained language model into Low Rank Adapters (LoRA). Our best model family, which we name Guanaco, outperforms all previous openly rel

                      GitHub - artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs
                    • Parameter-Efficient LLM Finetuning With Low-Rank Adaptation (LoRA) - Lightning AI

                      ← Back to blog Parameter-Efficient LLM Finetuning With Low-Rank Adaptation (LoRA) Posted on April 26, 2023 by Sebastian Raschka - Articles, Tutorials Key takeaway In the rapidly evolving field of AI, using large language models in an efficient and effective manner is becoming more and more important. In this article, you will learn how to tune an LLM with Low-Rank Adaptation (LoRA) in a computatio

                        Parameter-Efficient LLM Finetuning With Low-Rank Adaptation (LoRA) - Lightning AI
                      • RAG vs Finetuning — Which Is the Best Tool to Boost Your LLM Application?

                        Image by authorPrologueAs the wave of interest in Large Language Models (LLMs) surges, many developers and organisations are busy building applications harnessing their power. However, when the pre-trained LLMs out of the box don’t perform as expected or hoped, the question on how to improve the performance of the LLM application. And eventually we get to the point of where we ask ourselves: Shoul

                          RAG vs Finetuning — Which Is the Best Tool to Boost Your LLM Application?
                        • ChainerのTrainerを使ってFineTuning - Tech Tac Toe

                          どうもこんにちは chainerなんか早くなったらしいですね。 とても素晴らしい技術力だと思いますが、個人的には高速化よりも詳しい使い方が書いたドキュメントや日本語ドキュメントの充実に力を入れてほしい気がします。 (GPU128枚も持ってないし…) 128枚もGPUを使って何かするようなところって大きな企業かでかい研究機関しかないと思うし、そういったところが使うかと言うと使わない気もする。 PyTorchとかchainerに似ているフレームワークも出てきていて正直chainerどうなるんだろうという感じはしていますが、PaintsChainerとかあったり一応日本では流行ってるみたいなので使ってみました。 Trainer Trainerってなんだって話ですが、今まではバッチ処理を自分で書いたりしなければならなかったのがTrainerによって抽象化されて書く必要がなくなりました。 いまどれだ

                            ChainerのTrainerを使ってFineTuning - Tech Tac Toe
                          • GitHub - intel-analytics/ipex-llm: Accelerate local LLM inference and finetuning (LLaMA, Mistral, ChatGLM, Qwen, Baichuan, Mixtral, Gemma, etc.) on Intel CPU and GPU (e.g., local PC with iGPU, discrete GPU such as Arc, Flex and Max). A PyTorch LLM library

                            Accelerate local LLM inference and finetuning (LLaMA, Mistral, ChatGLM, Qwen, Baichuan, Mixtral, Gemma, etc.) on Intel CPU and GPU (e.g., local PC with iGPU, discrete GPU such as Arc, Flex and Max). A PyTorch LLM library that seamlessly integrates with llama.cpp, HuggingFace, LangChain, LlamaIndex, DeepSpeed, vLLM, FastChat, ModelScope, etc.

                              GitHub - intel-analytics/ipex-llm: Accelerate local LLM inference and finetuning (LLaMA, Mistral, ChatGLM, Qwen, Baichuan, Mixtral, Gemma, etc.) on Intel CPU and GPU (e.g., local PC with iGPU, discrete GPU such as Arc, Flex and Max). A PyTorch LLM library
                            • FiNETUNiNG 矢野 耀子

                              12.6生 日本デザイナー学院 マルチメディアデザイン科卒 日本デザイナー学院卒業後、2002年より数社のWEB関連会社にWEBデザイナーとして在籍後、2006年に独立。 千葉県佐倉市にて活動中。趣味は家庭菜園、写真撮影、華道、散歩。 2匹のヘビと一緒に住んでいます。

                              • GitHub - lxe/simple-llm-finetuner: Simple UI for LLM Model Finetuning

                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                  GitHub - lxe/simple-llm-finetuner: Simple UI for LLM Model Finetuning
                                • Finetuning Llama 2 in your own cloud environment, privately

                                    Finetuning Llama 2 in your own cloud environment, privately
                                  1