並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 71件

新着順 人気順

"Fine Tuning"の検索結果1 - 40 件 / 71件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

"Fine Tuning"に関するエントリは71件あります。 AILLMBERT などが関連タグです。 人気エントリには 『【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.) - Qiita』などがあります。
  • 【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.) - Qiita

    【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.)OpenAIChatGPTlangchainGPT-4LlamaIndex 生成AIカンファレンス 〜徹底解剖「トップランナーから見た日本が挑む生成AIの最前線」〜 日時:5月8日(水) 10:00-18:30 形式:オフライン・オンラインのハイブリッド開催 場所:東京大学伊藤謝恩ホール(オンライン参加の方は配信URLをお送りします) 参加方法:下記イベントページより申込 ChatGPT に代表される今日の AI ブームを牽引しているのは 大規模言語モデル(Large-scale Language Model, LLM) と言っても過言ではないでしょう。LLM とは大量のテキストデータを使ってトレーニングされた自然言語処理のモデルで、代表的なものに、GPT(OpenAI)

      【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.) - Qiita
    • GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ

      はじめに 結論 背景 課題 Fine-tuning とは? Data の準備 Fine-tuning を実施 結果 おわりに 参考 はじめに こんにちは、DROBE の都筑です。 みなさん LLM 使っていますか。今回は GPT-3.5-turbo の Fine-tuning の事例を紹介します。 結論 GPT-4 を利用して得られたデータを使って GPT-3.5-turbo を Fine-tuning する事で、特定のタスクに関しては GPT-4 相当の性能が出る事が確認できた GPT-4 利用時点で使っていたプロンプトをそのまま使った場合の性能が一番高く、token 節約のためにプロンプトの省略をすると性能が劣化した 背景 LLM を利用したサービスの開発において、OpenAI を利用する場合にはモデルの選択肢がいくつかあります。2023年9月現在では、GPT-4 と GPT-3.5-

        GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ
      • 【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO

        ただし、GPT-4と比較すると安価にはなっていますので、性能比較をしながら良い塩梅を探すとコスト的にメリットがある可能性があります。 また学習のコストですが、以下のように学習データ全体のトークン数 x エポック数という形で費用が掛かるので注意が必要です。 (エポック数は後述するようにパラメータとして指定可能です) For example, a gpt-3.5-turbo fine-tuning job with a training file of 100,000 tokens that is trained for 3 epochs would have an expected cost of $2.40. 公式ページは以下となりますので、併せてご確認ください。 レート制限 fine-tuningのレート制限については、以下に記載があります。 fine-tuningについては以下のように

          【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO
        • GPT-3.5 Turbo fine-tuning and API updates

          Developers can now bring their own data to customize GPT-3.5 Turbo for their use cases. Fine-tuning for GPT-3.5 Turbo is now available, with fine-tuning for GPT-4 coming this fall. This update gives developers the ability to customize models that perform better for their use cases and run these custom models at scale. Early tests have shown a fine-tuned version of GPT-3.5 Turbo can match, or even

            GPT-3.5 Turbo fine-tuning and API updates
          • OpenAI APIのFine-tuningを試してみる | DevelopersIO

            手順 トレーニングデータを準備してアップロードする 新しいFine-tuningされたモデルをトレーニングする Fine-tuningモデルを使用する ドキュメントに沿って行っていくので、APIの利用はOpenAIのCLIを使って実行してきます。 以下のコマンドでインストール。・ pip install --upgrade openai openaiのAPI keyを環境変数にセットします。 export OPENAI_API_KEY="<OPENAI_API_KEY>" サンプルとして、ゲーム内のとある名称がスキルなのか爆発なのか分類させてみます。 chatGPTではこのように間違った回答を返していたので、正しい情報を学習させてみます。 1. トレーニングデータを準備してアップロードする トレーニングデータは、GPT-3に言いたいことを教える方法です データセットの準備 に書いてあるベス

              OpenAI APIのFine-tuningを試してみる | DevelopersIO
            • 大規模言語モデルのFine-tuningによるドメイン知識獲得の検討 - Preferred Networks Research & Development

              本記事は、2023年夏季インターンシッププログラムで勤務された竹田悠哉さんによる寄稿です。 はじめに 2023年度のPFN夏季インターンに参加した、東京大学大学院工学系研究科の竹田悠哉と申します。学部では画像生成の研究をしていましたが、技術の社会実装をより俯瞰的に学びたいと思い、現在は技術経営戦略学専攻で教育工学の研究をしています。 インターンでは「機械学習技術の社会実装」をテーマに、LLM(Large Language Model)にドメイン知識を習得させることに取り組みました。様々な設定において、主に英語で学習されたモデルであるLLaMA2に対して日本語のデータでのFine-tuningを行い、LoRAやInstruction Tuning、ドメイン知識の習得に関する知見を得ることができたと思います。本記事では、そこで利用した技術の紹介と、日本語におけるドメイン知識の習得に関する実験、

                大規模言語モデルのFine-tuningによるドメイン知識獲得の検討 - Preferred Networks Research & Development
              • Sentence BERTをFine TuningしてFAQを類似文書検索してみる - Taste of Tech Topics

                こんにちは。社内データサイエンスチームYAMALEXの@Ssk1029Takashiです。 最近はRTX4090のマシンを買って電気代が上がってきています。 昨今NLP界隈では事前学習モデルが出てからは、検索というのもキーワードでの検索だけではなく、文章を入力にして似たような文章を探す類似文書検索も使われるようになりました。 そんな中で、今回はFAQを対象にした類似文書検索をSentence BERTを使って試してみます。 FAQでよくある困りごと 今回やること Sentence BERTとは 検証 FAQデータセットから文章ベクトルを学習する 回答文から文章ベクトルを生成する 質問文から近しい回答を見つける 単語が揺れてもいい感じに回答を取得できるのか検証 まとめ FAQでよくある困りごと FAQはあらゆる場面で重要な情報源ですが、いまいち検索がしづらい情報でもあります。 FAQを利用し

                  Sentence BERTをFine TuningしてFAQを類似文書検索してみる - Taste of Tech Topics
                • 日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog

                  TL;DR ①TensorFlow版訓練済みモデルをPyTorch用に変換した (→方法だけ読みたい方はこちら) ②①をスムーズに使うための torchtext.data.Dataset を設計した ③PyTorch-Lightningを使ってコードを短くした はじめに 日本語Wikipediaで事前学習されたBERTモデルとしては, 以下の2つが有名であり, 広く普及しています: SentencePieceベースのモデル (Yohei Kikuta さん提供) TensorFlow版 Juman++ベースのモデル (京大黒橋研提供) TensorFlow版 PyTorch版(Hugging Face transformers準拠) このうち, SentencePieceベースのものは現在TensorFlow版のみの提供となっており, PyTorch版は存在しません。 そのため, 私のよう

                    日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog
                  • Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 | 株式会社AI Shift

                    こんにちは AIチームの戸田です 本記事では前回に引き続き、私がKaggleのコンペティションに参加して得た、Transformerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます 前回は学習の効率化について書かせていただきましたので、今回は精度改善について書かせていただきます データ 前回に引き続きKaggleのコンペティション、CommonLit-Readabilityのtrainデータを使います validationの分け方などは前回の記事を参照していただければと思います 精度改善 一般的なニューラルネットワークモデルの精度改善方法として、ハイパーパラメータのチューニングやData Augmentationが上げられますが、ここではBERTを始めとするTransformerをベースとしたモデル(以降Transformerモデル)特有の工夫について

                      Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 | 株式会社AI Shift
                    • ChatGPT の Fine-tuning を試したけど上手くいかなかった話

                      これはなに? 新しくリリースされた ChatGPT (GPT-3.5 Turbo) の Fine-tuning を試してみたメモ。 ChatGPTに最新の知識や専門知識を注入できるかどうかをテストしてみた。 結局、自分が想定した動きにはできなかったので記事にして供養します🙏 tl;dr 一晩試してみた程度では、ChatGPTに最新の知識を教え込む目的での Fine-tuning はうまく動かなかった。 OpenAIが提示している想定のユースケースとずれている利用方法なので、もう少しトライしても上手くいかないんじゃないかなと思う。 学習データに入れた質問をそのまま投げてあげると回答できることもある程度だった。(このままでは到底使えない…) 出力のトーンや言語の指示にプロンプトの文字数を大量に使っていて、それを大幅に削減したい、という時には使えそうだなという印象だった。 学習データの自動生成

                        ChatGPT の Fine-tuning を試したけど上手くいかなかった話
                      • Prompt Tuning から Fine Tuning への移行時期推定

                        公開されている大規模言語モデルをどの程度のデータで Fine Tuning すれば Claude や ChatGPT などの API 公開されているモデルの精度に匹敵するのか検証した資料です。 言語処理学会第30回年次大会 併設ワークショップ 日本語言語資源の構築と利用性の向上 (JLR2024…

                          Prompt Tuning から Fine Tuning への移行時期推定
                        • 作るだけなら簡単なLLMを“より優れたもの”にするには 「Pretraining」「Fine-Tuning」「Evaluation & Analysis」構築のポイント

                          オープンLLMの開発をリードする現場の視点から、開発の実情や直面する課題について発表したのは、Stability AI Japan株式会社の秋葉拓哉氏。Weights & Biasesのユーザーカンファレンス「W&Bカンファレンス」で、LLM開発のポイントを紹介しました。全2記事。前半は、より優れたLLMを作るために必要なこと。前回はこちら。 より優れたLLMを作るために必要なこと 秋葉拓哉氏:めでたくFine-Tuningもできた。これけっこう、びっくりするかもしれません。コードはさすがにゼロとはいかないと思いますが、ほとんど書かずに実はLLMは作れます。 「さすがにこんなんじゃゴミみたいなモデルしかできないだろう」と思われるかもしれませんが、おそらく余計なことをしなければこれだけでも、まあまあそれっぽいLLMにはなるかなと思います。 なので、ちょっと、先ほどの鈴木先生(鈴木潤氏)の話と

                            作るだけなら簡単なLLMを“より優れたもの”にするには 「Pretraining」「Fine-Tuning」「Evaluation & Analysis」構築のポイント
                          • OpenCALM-7BをLoRAでFine tuningして対話ができるようにする|masuidrive

                            ちょっと出遅れたけど、サイバーエージェントが出したGPT-NeoXベースのLLM、OpenCALM-7BをGoogle Colab上でLoRA使ってFine tuningをしてみました。 とりあえず対話を試したい人masuidrive/open-calm-instruct-lora-20230525-r4-alpha16-batch32-epoch1 に1 epoch回したLoRAを置いておきます。 Google Colabで試したい人はV100やA100のハイメモリで動かしてください。OpenCALM-7Bのshardが10GB単位なため、12GBの標準メモリでは動きません。transformersのloaderがもう少し賢ければ、T4の標準メモリでも動くと思うんだけど・・・ なぜFine tuningをするのかOpenCALM-7Bは基礎モデルなので日本語やWikiPediaの内容など

                              OpenCALM-7BをLoRAでFine tuningして対話ができるようにする|masuidrive
                            • OpenAI(ChatGPT)のfine-tuning機能を早速試してみた~ひろゆきのスパチャを例に - Qiita

                              import os os.environ["OPENAI_API_KEY"] = "<ここにAPI_KEYを書く>" # driveをマウント(Colabからファイルを読み込めるようにする。初回は認証が必要なので許可します。) from google.colab import drive drive.mount('/content/drive') # 階層を移動(仕組み詳細はこちら -> https://www.ushiji.online/colab-file-upload) %cd "/content/drive/<colabを作成したフォルダーのパス>" データの作成 学習させるデータは以下のようなフォーマットで作成する必要があります。最大50MBまで対応しています。これは、公式tutorialの例ですが、皮肉な回答を返すように学習させているものです。 {"messages": [{"

                                OpenAI(ChatGPT)のfine-tuning機能を早速試してみた~ひろゆきのスパチャを例に - Qiita
                              • LLM Fine-Tuning (東大松尾研LLM講座 Day5資料)

                                東大松尾研サマースクール2023「大規模言語モデル」Day5の講義で使用した資料です。大規模言語モデルの Fine-Tuning をテーマに、Instruction Tuning および Parameter Efficient Fine-Tuning について体系的に紹介することを目指した内容となってい…

                                  LLM Fine-Tuning (東大松尾研LLM講座 Day5資料)
                                • Embeddingモデルを使ったベクトル化のしくみ、fine-tuning手法を解説

                                  自己紹介
 • 名前
 ◦ 早野 康太
 • お仕事
 ◦ 自然言語モデルの改善 • 今期期待のアニメ
 ◦ ユーフォ、無職転生、夜のクラゲ
 このすば、ガールズバンドクライ
 • 最近の映画
 ◦ デデデデおもろかったです
 ▪ 幾田りら声優うまスンギ
 ▪ 原作もバチクソ良かった
 • 今後の映画
 ◦ ウマ娘、ぼざろ、デデデデなど アジェンダ
 • Transformerモデル
 ◦ Attentionについて
 ◦ CLS, mean pooling
 • fine-tuningについて
 ◦ Contrastive Learning
 ◦ データセットのつくりかた
 • 世のEmbeddingモデルたちはどうしてるか
 ◦ m-E5
 ◦ E5-mistral-7b-instruct
 ◦ BGE
 • Embeddingモデルの応用
 ◦ RAGとかStable Diffusi

                                    Embeddingモデルを使ったベクトル化のしくみ、fine-tuning手法を解説
                                  • Hugging FaceでOpenAIの音声認識”Whisper”をFine Tuningする方法が公開されました | DevelopersIO

                                    こんちには。 データアナリティクス事業本部 機械学習チームの中村です。 OpenAIがリリースしたWhisperについて、先日Hugging FaceのブログでHugging Faceのフレームワークを用いたfine-tuningの実行方法が紹介されました。 fine-tuningにより、自社で蓄積された音声や書き起こしのデータセットがある場合は、特化した学習をすることが可能です。 また著名なHugging Faceからfine-tuningの実装がリリースされたことで、今後様々なシーンでの応用の可能性を感じます。 Hugging FaceブログではHindi語を例として実施していますが、今回はこちらについて、日本語データを例にしながら動作を確認していきたいと思います。 概要 本記事では、Hugging Faceのフレームワークを用いたfine-tuningの実行を、日本語データセットを例

                                      Hugging FaceでOpenAIの音声認識”Whisper”をFine Tuningする方法が公開されました | DevelopersIO
                                    • Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編〜 | 株式会社AI Shift

                                      こんにちは AIチームの戸田です 近年、自然言語処理タスクにおいて、BERTを始めとするTransformerをベースとした事前学習モデルを感情分類や質問応答などの下流のタスクでfine-tuningする手法が一般的になっています huggingfaceのTransformersなど、事前学習モデルを簡単に使うことのできるライブラリもありますが、Kaggleなどのコンペティションで上位に入るには素のモデルのままでは難しく、ヘッダや損失関数などの工夫などが必要です 本記事では私がKaggleのコンペティションに参加して得た、事前学習モデルのfine-tuningのTipsを共有させていただきます 書きたい内容が多くなってしまったので、今回は学習の効率化について、次回精度改善について、と2回に分けて書かせていただきます 事前準備 学習データとして、先日終了したKaggleのコンペティション、C

                                        Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編〜 | 株式会社AI Shift
                                      • OpenAI’s GPT-4o mini Now Available in API with Vision and Fine-tuning Text Capabilities on Azure AI

                                        We recently launched OpenAI’s fastest model, GPT-4o mini, in the Azure OpenAI Studio Playground, simultaneously with OpenAI. The response from our customers has been phenomenal. Today, we are excited to bring this powerful model to even more developers by releasing the GPT-4o mini API with vision support for Global and East US Regional Standard Deployments. From Playground to API: Expanding Access

                                          OpenAI’s GPT-4o mini Now Available in API with Vision and Fine-tuning Text Capabilities on Azure AI
                                        • 【PyTorch】BERTの使い方 - 日本語pre-trained modelsをfine tuningして分類問題を解く - Qiita

                                          【PyTorch】BERTの使い方 - 日本語pre-trained modelsをfine tuningして分類問題を解くPython自然言語処理機械学習PyTorchbert はじめに 自然言語処理の様々なタスクでSOTAを更新しているBERTですが、Google本家がGithubで公開しているものはTensorflowをベースに実装されています。 PyTorch使いの人はPyTorch版を使いたいところですが、PyTorch版は作っていないのでHuggingFaceが作ったやつを使ってね、ただし我々は開発に関与していないので詳しいことは彼らに訊いてね!とQAに書かれています。 HuggingFace製のBERTですが、2019年12月までは日本語のpre-trained modelsがありませんでした。 そのため、英語では気軽に試せたのですが、日本語ではpre-trained mod

                                            【PyTorch】BERTの使い方 - 日本語pre-trained modelsをfine tuningして分類問題を解く - Qiita
                                          • OpenAIの音声認識モデル Whisperの解説 / Fine Tuning 方法

                                            OpenAIから、かなりすごい音声認識モデル Whisperが発表されました。特出すべき点は、教師付き音声68万時間という、かなりヤバめのデータ量で訓練しており、英語では商用の音声認識システムや人間の書き起こしに匹敵する性能とのことです。 社内でも日本語、ブルガリア語、韓国語で試してみましたが、すごい精度でした。日本語の場合、漢字の間違いが多々ありましたが、発音は大体あってそうでした。ブルガリア語は、ロシア語で認識されていました。韓国語は、完璧でした。 しかし、Githubに公開されたコードを見てみると、訓練コードが含まれておらず、公開の予定もないそうです。そこで、本記事では、Whisperの解説に加えて、Fine Tuningの方法を解説します。 ※ Fine Tungingを何となくで作成しているので、正確なコードではないです。気付いた点がありましたら、コメントください。 全てのコード

                                              OpenAIの音声認識モデル Whisperの解説 / Fine Tuning 方法
                                            • Fine-tuning GPT-3.5-Turbo for Natural Language to SQL

                                              Photo by Mariia Shalabaieva on UnsplashBackgroundAllowing non-technical users to ask questions from a database has been a problem of interest in academia and industry for years. The recent advances in Large Language Model (LLM) technology, such as GPT-4, have improved the accuracy of proposed solutions. However, since the most advanced LLMs have not been open for fine-tuning, recent work in the sp

                                                Fine-tuning GPT-3.5-Turbo for Natural Language to SQL
                                              • Fine-tuning: gpt-3.5-turboの活用事例。絵文字分類タスク改善のプロセスと、学びの言語化。|にょす

                                                みなさん、Fine-tuning使ってますか!? 一週間ほど前に、OpenAI社からgpt-3.5-turboがFine-tuning可能になったとのアップデートがありましたね。 ニュースを見て凄そうと思いつつ、少し作業のハードルがあったり、プロンプトエンジニアリングで事足りてるから、そんなに使わないかも?🤔と思ってました。 ただ今回、重い腰を上げて、Fine-tuningを試してみたら、想像以上の結果が得られたので、そのプロセスと学びをまとめます! システムに組み込む際の Prompt Engineering で苦戦している皆さん、Fine-tuningはかなり希望になると思います…!これからはPromptをゴニョゴニョするよりも、Fine-tuningに力を入れていこうと思いました。 ではまとめていきます! 前置きとこれまでの課題今回は、音声メモ日記アプリ「シャべマル」の絵文字分類タ

                                                  Fine-tuning: gpt-3.5-turboの活用事例。絵文字分類タスク改善のプロセスと、学びの言語化。|にょす
                                                • NN時代のモダンな不均衡データ補正:undersamplingしたデータから得られたモデルを全データでfine-tuningする(論文紹介・ただし再現に失敗) - 渋谷駅前で働くデータサイエンティストのブログ

                                                  何だか不均衡データ補正の話題は毎回tmaeharaさんからネタを頂戴している気がしますが(笑)、今回も興味深いネタを拝見したので試してみようと思います。 深層学習時代の class imbalance 対応が面白い。適当にバランシングしたデータセットで十分学習した後にフルデータセットでファインチューンするのがいいらしい。なんだこれ。— ™ (@tmaehara) 2022年5月11日 端的にまとめると「under/upsamplingで均衡させた改変データセットで学習したNNを、改めて全データセットでfine-tuningすれば不均衡データ補正が上手くいく」という論文があるらしく、しかも割とうまくいくので採用している後発論文が少なからずあるようだ、というお話です。 tmaeharaさんが引用されていたのはこちらの論文なんですが、IEEE公式サイトのものは僕は読めないので適当にarXivで探

                                                    NN時代のモダンな不均衡データ補正:undersamplingしたデータから得られたモデルを全データでfine-tuningする(論文紹介・ただし再現に失敗) - 渋谷駅前で働くデータサイエンティストのブログ
                                                  • DiffusersベースでStable Diffusionをfine tuningする|Kohya S.

                                                    NovelAIの提案した学習手法、自動キャプションニング、タグ付け、Windows+VRAM 12GB(v1.4/1.5の場合)環境等に対応したfine tuningです。 ※12/17:v9に更新しました。「Diffusersの環境構築とスクリプトの準備」に飛んでください。 はじめに先日、DiffusersベースでDreamBoothを行う記事を書きましたが、U-Netの学習の仕組みを使うことでStable Diffusionのfine tuningが可能です。この記事ではその方法について解説します。以前のDreamBoothのスクリプトを流用したfine tuningよりも機能が追加されています。 ある程度の枚数(数百枚~が望ましいようです)の画像を用意することでDreamBoothよりもさらに柔軟な学習が可能です。 Pythonで仮想環境を構築できるくらいの方を対象にしています。また

                                                      DiffusersベースでStable Diffusionをfine tuningする|Kohya S.
                                                    • WhisperをFine Tuningして専門用語を認識可能にする

                                                      Whisperを少量のデータセットでFine Tuningして専門用語を認識可能にする方法を解説します。Tacotron2の合成音声でデータセットを作成することで、専門用語を認識可能なWhisperモデルを作成します。 WhisperについてWhisperはOpenAIの開発した音声認識モデルです。日本語を含む多言語に対応しており、高精度な音声認識が可能です。ただし、学習時に使用していない専門用語は認識できないという問題があります。 Whisperのアーキテクチャ(出典:https://huggingface.co/blog/fine-tune-whisper)Whisperにおける専門用語の扱いについてWhisperで専門用語を取り扱う場合、initial_promptに専門用語を埋め込むという方法があります。しかし、initial_promptにはコンテキストサイズの半分の224トーク

                                                        WhisperをFine Tuningして専門用語を認識可能にする
                                                      • Fine-Tuning Llama-2: Tailoring Models to Unique Applications

                                                        Fine-Tuning Llama-2: A Comprehensive Case Study for Tailoring Models to Unique Applications In this blog, we provide a thorough analysis and a practical guide for fine-tuning. We examine the Llama-2 models under three real-world use cases, and show that fine-tuning yields significant accuracy improvements across the board (in some niche cases, better than GPT-4). Experiments were carried out with

                                                          Fine-Tuning Llama-2: Tailoring Models to Unique Applications
                                                        • GitHub - huggingface/peft: 🤗 PEFT: State-of-the-art Parameter-Efficient Fine-Tuning.

                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                            GitHub - huggingface/peft: 🤗 PEFT: State-of-the-art Parameter-Efficient Fine-Tuning.
                                                          • LLMのFine-Tuning手法まとめ - Qiita

                                                            LLMのFine-Tuning手法まとめ この記事のまとめ+補足説明を加えたものです。 https://dr-bruce-cottman.medium.com/part-1-eight-major-methods-for-finetuning-an-llm-6f746c7259ee LLM に対してパラメータ Fine-Tuning を行う手法 Gradient-based LoRA QLoRA その他の手法 について見ていきます。 0. 初期の Fine-Tuning 方法 初期の Fine-Tuning 方法はシンプルで、事前にトレーニングされた言語モデル (当時の用語は NLP (自然言語処理) と呼ばれていました) を取得し、それをラベル付きデータの小さなデータセットで微調整することが含まれていました。 目標は、モデルのパラメーターを調整することで、ラベル付きデータに対するモデルの

                                                              LLMのFine-Tuning手法まとめ - Qiita
                                                            • Fine-tuning 20B LLMs with RLHF on a 24GB consumer GPU

                                                              We are excited to officially release the integration of trl with peft to make Large Language Model (LLM) fine-tuning with Reinforcement Learning more accessible to anyone! In this post, we explain why this is a competitive alternative to existing fine-tuning approaches. Note peft is a general tool that can be applied to many ML use-cases but it’s particularly interesting for RLHF as this method is

                                                              • ChatGPTのfine-tuningで俺botを作ってみた話 - Qiita

                                                                はじめに こんにちは、そこらへんのデータサイエンティストです。 突然ですが、みなさん(特に男性諸君)こんなこと思ったことありませんか? 彼女のLINEを返すのがめんどくさい 毎朝毎朝、「おはよう」をわざわざLINEで言わなければいけないのが嫌だ どうでもいい内容のメッセージに返信するのが億劫だ 自分の代わりに返信してくれるbotがあったら便利なのになぁ... と、いうわけで、自分っぽく返信してくれるbot、通称「俺bot」を作ってみることにしました。 俺botの作り方 ではどうやって俺botを作るのか。実は至って簡単で、誰でも作ることができます。 そう、LINEの膨大なトーク履歴とChatGPTのfine-tuningを使うことによって実現ができます。単純な話、ChatGPTのgpt-3.5-turboに自分のLINEのトーク履歴を学習させたら俺っぽく喋ってくれんじゃね??と思いました。

                                                                  ChatGPTのfine-tuningで俺botを作ってみた話 - Qiita
                                                                • 続・GPT-4oで画像解析をやってみた Fine-tuning編 - GMOインターネットグループ グループ研究開発本部

                                                                  TL;DR OpenAIは2024年10月1日に公開した新しいAPIの1つがVision Fine-tuningです。これはGPT-4oの画像認識能力を追加学習(ファインチューニング)できる新機能です。Vision Fine-tuning APIは、最低10枚の画像と期待する返答の学習データを準備するだけで、Web上で手軽に実行と検証が可能です。 今回、実験として美雲このはの画像を使ってキャラクターを認識させたり、問題のあるグラフの可視化を指摘させるなどの学習をさせて、期待通りの回答を得ることができました。なお、人物や顔、CAPTCHAなど利用規約に違反する画像は学習できない点に注意が必要です。 はじめに こんにちは、グループ研究開発本部・AI研究室のT.I.です。OpenAIでは、2024年10月1日に、いくつかの新しいAPIをリリースしました。今回のBlogでは、その1つであるvisi

                                                                    続・GPT-4oで画像解析をやってみた Fine-tuning編 - GMOインターネットグループ グループ研究開発本部
                                                                  • OpenAIが2つの新機能を発表、モデルのカスタマイズをより容易に ー fine-tuning APIの拡張とカスタムモデルプログラムの拡大

                                                                    4月5日、OpenAIが新たな機能改善としてfine-tuning APIの拡張とカスタムモデルプログラムの拡大を発表した。 fine-tuning APIの新機能 OpenAIは、GPT-3.5のfine-tuning APIに新しい機能を追加した。このAPIは、ユーザーがモデルの性能を向上させるための手法を提供し、特定のタスクに適したモデルを作成するのに役立つ。例えば、プログラミング言語に特化したコードの生成や、特定の形式でテキストを要約するためのモデルのトレーニング、ユーザーの行動に基づいて個別に作成されたコンテンツの作成などが挙げられる。 fine-tuning APIは、開発者が事前にトレーニングされたモデルを自分のデータに適応させるための柔軟性を提供する。これにより、モデルは特定のタスクやドメインに最適化され、より正確な結果を生成できる。また、このAPIは大規模なトレーニングデ

                                                                      OpenAIが2つの新機能を発表、モデルのカスタマイズをより容易に ー fine-tuning APIの拡張とカスタムモデルプログラムの拡大
                                                                    • Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker | Amazon Web Services

                                                                      AWS Machine Learning Blog Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker November 2022: The solution described here is not the latest best practice. The new HuggingFace Deep Learning Container (DLC) is available in Amazon SageMaker (see Use Hugging Face with Amazon SageMaker). For customer training BERT models, the recommended pattern is to use

                                                                        Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker | Amazon Web Services
                                                                      • ファインチューニング(Fine-tuning:微調整)とは?

                                                                        用語「ファインチューニング」について説明。「事前学習」した訓練済みニューラルネットワークモデルの一部もしくは全体を、別のデータセットを使って再トレーニングすることで、新しいタスク向けにモデルのパラメーターを微調整することを指す。 連載目次 用語解説 機械学習(厳密にはニューラルネットワーク)におけるファインチューニング(Fine-tuning:微調整)とは、あるデータセットを使って事前学習(Pre-training)した訓練済みモデルの一部もしくは全体を、別のデータセットを使って再トレーニングすることで、新しいタスク向けに機械学習モデルのパラメーターを微調整することである(図1)。一般的に、再トレーニングの際の学習率はより小さな値にするため、既に調整済みのパラメーターへの影響もより小さなものとなる。 ファインチューニングは、(広義の)転移学習(Transfer Learning)の一つのア

                                                                          ファインチューニング(Fine-tuning:微調整)とは?
                                                                        • ChatGPTでファインチューニング (Fine-tuning) を試してみた - PLAY DEVELOPERS BLOG

                                                                          こんにちは、プラットフォーム技術部開発第2グループの李です。 最近AIサービスChatGPTがよく注目されます。米国時間2023年8月22日にOpenAIは、大規模言語モデル「GPT-3.5 Turbo」がFine-tuningに対応したと発表しました。 openai.com 今回、このFine-tuningを試してみました。 Fine-tuningとは Fine-tuningのメリット プロンプトよりも高品質な結果が得られる プロンプトに収まりきらないほどの多くの例を学習できる 短いプロンプトによるトークンの節約 低レイテンシーのリクエスト OpenAI APIを使用したFine-tuningの手順 1. OpenAI APIキーを取得する 2. Fine-tuningの作業環境を準備する 3. トレーニングデータを準備する 4. トレーニングデータのフォーマットをチェックする 5. デ

                                                                            ChatGPTでファインチューニング (Fine-tuning) を試してみた - PLAY DEVELOPERS BLOG
                                                                          • Kaggleで学んだBERTをfine-tuningする際のTips⑤〜ラベルなしデータ活用編〜 | 株式会社AI Shift

                                                                            こんにちは!AIチームの戸田です! 本記事では私がKaggleのコンペティションに参加して得た、Transformerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます。 以前も何件か同じテーマで記事を書かせていただきました。 Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編 Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 Kaggleで学んだBERTをfine-tuningする際のTips③〜過学習抑制編〜 Kaggleで学んだBERTをfine-tuningする際のTips④〜Adversarial Training編〜 今回はラベルなしデータの活用について書かせていただきます。 世の中の様々な問題を、蓄積された大量のデータを使った教師あり学習で解こうとする試みは多くなされてい

                                                                              Kaggleで学んだBERTをfine-tuningする際のTips⑤〜ラベルなしデータ活用編〜 | 株式会社AI Shift
                                                                            • GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning

                                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning
                                                                              • LLMに「自分自身との対戦」で能力を向上させる手法『Self-Play Fine-Tuning(SPIN)』 | AIDB

                                                                                参照論文情報 タイトル:Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models 著者:Zixiang Chen, Yihe Deng, Huizhuo Yuan, Kaixuan Ji, Quanquan Gu 所属:カリフォルニア大学 URL:https://doi.org/10.48550/arXiv.2401.01335 コード:https://github.com/uclaml/SPIN データセット:https://huggingface.co/collections/UCLA-AGI/datasets-spin-65c3624e98d4b589bbc76f3a モデル:https://huggingface.co/collections/UCLA-AGI/zephyr-7b-sf

                                                                                  LLMに「自分自身との対戦」で能力を向上させる手法『Self-Play Fine-Tuning(SPIN)』 | AIDB
                                                                                • Parameter-Efficient Fine-Tuning using 🤗 PEFT

                                                                                  🤗 PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware Motivation Large Language Models (LLMs) based on the transformer architecture, like GPT, T5, and BERT have achieved state-of-the-art results in various Natural Language Processing (NLP) tasks. They have also started foraying into other domains, such as Computer Vision (CV) (VIT, Stable Diffusion, LayoutLM) an

                                                                                    Parameter-Efficient Fine-Tuning using 🤗 PEFT

                                                                                  新着記事