並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 76件

新着順 人気順

"Fine Tuning"の検索結果1 - 40 件 / 76件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

"Fine Tuning"に関するエントリは76件あります。 AILLMChatGPT などが関連タグです。 人気エントリには 『【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.) - Qiita』などがあります。
  • 【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.) - Qiita

    生成AIカンファレンス 〜徹底解剖「トップランナーから見た日本が挑む生成AIの最前線」〜 日時:5月8日(水) 10:00-18:30 形式:オフライン・オンラインのハイブリッド開催 場所:東京大学伊藤謝恩ホール(オンライン参加の方は配信URLをお送りします) 参加方法:下記イベントページより申込 ChatGPT に代表される今日の AI ブームを牽引しているのは 大規模言語モデル(Large-scale Language Model, LLM) と言っても過言ではないでしょう。LLM とは大量のテキストデータを使ってトレーニングされた自然言語処理のモデルで、代表的なものに、GPT(OpenAI)、Llama(Meta)、PaLM(Google)があります。我々開発者は、事前学習されたこれらのモデルを使って簡単にアプリケーションを作ることができます。 LLM が遂行可能な言語的タスク LL

      【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.) - Qiita
    • GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ

      はじめに 結論 背景 課題 Fine-tuning とは? Data の準備 Fine-tuning を実施 結果 おわりに 参考 はじめに こんにちは、DROBE の都筑です。 みなさん LLM 使っていますか。今回は GPT-3.5-turbo の Fine-tuning の事例を紹介します。 結論 GPT-4 を利用して得られたデータを使って GPT-3.5-turbo を Fine-tuning する事で、特定のタスクに関しては GPT-4 相当の性能が出る事が確認できた GPT-4 利用時点で使っていたプロンプトをそのまま使った場合の性能が一番高く、token 節約のためにプロンプトの省略をすると性能が劣化した 背景 LLM を利用したサービスの開発において、OpenAI を利用する場合にはモデルの選択肢がいくつかあります。2023年9月現在では、GPT-4 と GPT-3.5-

        GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ
      • 【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO

        ただし、GPT-4と比較すると安価にはなっていますので、性能比較をしながら良い塩梅を探すとコスト的にメリットがある可能性があります。 また学習のコストですが、以下のように学習データ全体のトークン数 x エポック数という形で費用が掛かるので注意が必要です。 (エポック数は後述するようにパラメータとして指定可能です) For example, a gpt-3.5-turbo fine-tuning job with a training file of 100,000 tokens that is trained for 3 epochs would have an expected cost of $2.40. 公式ページは以下となりますので、併せてご確認ください。 レート制限 fine-tuningのレート制限については、以下に記載があります。 fine-tuningについては以下のように

          【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO
        • GPT-3.5 Turbo fine-tuning and API updates

          Developers can now bring their own data to customize GPT-3.5 Turbo for their use cases. Fine-tuning for GPT-3.5 Turbo is now available, with fine-tuning for GPT-4 coming this fall. This update gives developers the ability to customize models that perform better for their use cases and run these custom models at scale. Early tests have shown a fine-tuned version of GPT-3.5 Turbo can match, or even

            GPT-3.5 Turbo fine-tuning and API updates
          • OpenAI APIのFine-tuningを試してみる | DevelopersIO

            手順 トレーニングデータを準備してアップロードする 新しいFine-tuningされたモデルをトレーニングする Fine-tuningモデルを使用する ドキュメントに沿って行っていくので、APIの利用はOpenAIのCLIを使って実行してきます。 以下のコマンドでインストール。・ pip install --upgrade openai openaiのAPI keyを環境変数にセットします。 export OPENAI_API_KEY="<OPENAI_API_KEY>" サンプルとして、ゲーム内のとある名称がスキルなのか爆発なのか分類させてみます。 chatGPTではこのように間違った回答を返していたので、正しい情報を学習させてみます。 1. トレーニングデータを準備してアップロードする トレーニングデータは、GPT-3に言いたいことを教える方法です データセットの準備 に書いてあるベス

              OpenAI APIのFine-tuningを試してみる | DevelopersIO
            • 大規模言語モデルのFine-tuningによるドメイン知識獲得の検討 - Preferred Networks Research & Development

              本記事は、2023年夏季インターンシッププログラムで勤務された竹田悠哉さんによる寄稿です。 はじめに 2023年度のPFN夏季インターンに参加した、東京大学大学院工学系研究科の竹田悠哉と申します。学部では画像生成の研究をしていましたが、技術の社会実装をより俯瞰的に学びたいと思い、現在は技術経営戦略学専攻で教育工学の研究をしています。 インターンでは「機械学習技術の社会実装」をテーマに、LLM(Large Language Model)にドメイン知識を習得させることに取り組みました。様々な設定において、主に英語で学習されたモデルであるLLaMA2に対して日本語のデータでのFine-tuningを行い、LoRAやInstruction Tuning、ドメイン知識の習得に関する知見を得ることができたと思います。本記事では、そこで利用した技術の紹介と、日本語におけるドメイン知識の習得に関する実験、

                大規模言語モデルのFine-tuningによるドメイン知識獲得の検討 - Preferred Networks Research & Development
              • Sentence BERTをFine TuningしてFAQを類似文書検索してみる - Taste of Tech Topics

                こんにちは。社内データサイエンスチームYAMALEXの@Ssk1029Takashiです。 最近はRTX4090のマシンを買って電気代が上がってきています。 昨今NLP界隈では事前学習モデルが出てからは、検索というのもキーワードでの検索だけではなく、文章を入力にして似たような文章を探す類似文書検索も使われるようになりました。 そんな中で、今回はFAQを対象にした類似文書検索をSentence BERTを使って試してみます。 FAQでよくある困りごと 今回やること Sentence BERTとは 検証 FAQデータセットから文章ベクトルを学習する 回答文から文章ベクトルを生成する 質問文から近しい回答を見つける 単語が揺れてもいい感じに回答を取得できるのか検証 まとめ FAQでよくある困りごと FAQはあらゆる場面で重要な情報源ですが、いまいち検索がしづらい情報でもあります。 FAQを利用し

                  Sentence BERTをFine TuningしてFAQを類似文書検索してみる - Taste of Tech Topics
                • Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 | 株式会社AI Shift

                  こんにちは AIチームの戸田です 本記事では前回に引き続き、私がKaggleのコンペティションに参加して得た、Transformerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます 前回は学習の効率化について書かせていただきましたので、今回は精度改善について書かせていただきます データ 前回に引き続きKaggleのコンペティション、CommonLit-Readabilityのtrainデータを使います validationの分け方などは前回の記事を参照していただければと思います 精度改善 一般的なニューラルネットワークモデルの精度改善方法として、ハイパーパラメータのチューニングやData Augmentationが上げられますが、ここではBERTを始めとするTransformerをベースとしたモデル(以降Transformerモデル)特有の工夫について

                    Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 | 株式会社AI Shift
                  • ChatGPT の Fine-tuning を試したけど上手くいかなかった話

                    これはなに? 新しくリリースされた ChatGPT (GPT-3.5 Turbo) の Fine-tuning を試してみたメモ。 ChatGPTに最新の知識や専門知識を注入できるかどうかをテストしてみた。 結局、自分が想定した動きにはできなかったので記事にして供養します🙏 tl;dr 一晩試してみた程度では、ChatGPTに最新の知識を教え込む目的での Fine-tuning はうまく動かなかった。 OpenAIが提示している想定のユースケースとずれている利用方法なので、もう少しトライしても上手くいかないんじゃないかなと思う。 学習データに入れた質問をそのまま投げてあげると回答できることもある程度だった。(このままでは到底使えない…) 出力のトーンや言語の指示にプロンプトの文字数を大量に使っていて、それを大幅に削減したい、という時には使えそうだなという印象だった。 学習データの自動生成

                      ChatGPT の Fine-tuning を試したけど上手くいかなかった話
                    • Prompt Tuning から Fine Tuning への移行時期推定

                      公開されている大規模言語モデルをどの程度のデータで Fine Tuning すれば Claude や ChatGPT などの API 公開されているモデルの精度に匹敵するのか検証した資料です。 言語処理学会第30回年次大会 併設ワークショップ 日本語言語資源の構築と利用性の向上 (JLR2024…

                        Prompt Tuning から Fine Tuning への移行時期推定
                      • 作るだけなら簡単なLLMを“より優れたもの”にするには 「Pretraining」「Fine-Tuning」「Evaluation & Analysis」構築のポイント | ログミーBusiness

                        より優れたLLMを作るために必要なこと秋葉拓哉氏:めでたくFine-Tuningもできた。これけっこう、びっくりするかもしれません。コードはさすがにゼロとはいかないと思いますが、ほとんど書かずに実はLLMは作れます。 「さすがにこんなんじゃゴミみたいなモデルしかできないだろう」と思われるかもしれませんが、おそらく余計なことをしなければこれだけでも、まあまあそれっぽいLLMにはなるかなと思います。 なので、ちょっと、先ほどの鈴木先生(鈴木潤氏)の話と若干矛盾してしまって恐縮なのですが、僕のスタンスは、LLMを作るだけであれば思っているよりは簡単かなと思います。ここまで前半でした。 とはいえ、じゃあ、これをやったらGPT-4になるのかっていったら当然ならないわけです。そこにやはりギャップがあるわけですよね。「それは何なのか?」を次に考えていきましょうか。ここはかなりキリがないのですが、挙げられ

                          作るだけなら簡単なLLMを“より優れたもの”にするには 「Pretraining」「Fine-Tuning」「Evaluation & Analysis」構築のポイント | ログミーBusiness
                        • OpenCALM-7BをLoRAでFine tuningして対話ができるようにする|masuidrive

                          ちょっと出遅れたけど、サイバーエージェントが出したGPT-NeoXベースのLLM、OpenCALM-7BをGoogle Colab上でLoRA使ってFine tuningをしてみました。 とりあえず対話を試したい人masuidrive/open-calm-instruct-lora-20230525-r4-alpha16-batch32-epoch1 に1 epoch回したLoRAを置いておきます。 Google Colabで試したい人はV100やA100のハイメモリで動かしてください。OpenCALM-7Bのshardが10GB単位なため、12GBの標準メモリでは動きません。transformersのloaderがもう少し賢ければ、T4の標準メモリでも動くと思うんだけど・・・ なぜFine tuningをするのかOpenCALM-7Bは基礎モデルなので日本語やWikiPediaの内容など

                            OpenCALM-7BをLoRAでFine tuningして対話ができるようにする|masuidrive
                          • マルチモーダルLLMで複雑な画像を攻略:AOAIでGPT-4oをFine-tuning - Insight Edge Tech Blog

                            はじめに Insight EdgeのLLM Engineerの藤村です。 昨今、企業のDX推進に伴い、社内に蓄積された大量の画像データや文書の効率的な活用が求められています。弊社では、実務でLLMを活用する際、画像や表形式、複雑な図を含むドキュメントの理解が大きな課題となっています。この課題は多くの企業でも同様に直面していると考えられ、その解決は業務効率化において重要な意味を持ちます。 例えば: PowerPointの表やグラフの内容理解 手書きのホワイトボード写真からの情報抽出 複雑な組織図の階層関係の把握 スキャンした文書の図表部分の解釈 これらの課題に対して、以下の2点を検証しました: 最新のマルチモーダルLLMでどこまで対応できるのか GPT-4oのファインチューニングによってどの程度改善できるのか 目次 はじめに 目次 マルチモーダル大規模言語モデルとは 1. 主要マルチモーダル

                              マルチモーダルLLMで複雑な画像を攻略:AOAIでGPT-4oをFine-tuning - Insight Edge Tech Blog
                            • OpenAI(ChatGPT)のfine-tuning機能を早速試してみた~ひろゆきのスパチャを例に - Qiita

                              はじめに OpenAI社から革命的な機能がリリースされました。 https://openai.com/blog/gpt-3-5-turbo-fine-tuning-and-api-updates タイトルにもある通り、fine-tuningが利用可能になったとのことです。これにより自分たちが持っているデータに合わせて学習させたモデルを作成し、利用することができるようになりました。 Developers can now bring their own data to customize GPT-3.5 Turbo for their use cases. 公式Twitter lets you train the model on your company’s data つまり、従来は一般論しか返してくれなかったものが、会社や組織独自の文脈のデータを教え込ませ、それに沿った回答を返してくれると

                                OpenAI(ChatGPT)のfine-tuning機能を早速試してみた~ひろゆきのスパチャを例に - Qiita
                              • LLM Fine-Tuning (東大松尾研LLM講座 Day5資料)

                                東大松尾研サマースクール2023「大規模言語モデル」Day5の講義で使用した資料です。大規模言語モデルの Fine-Tuning をテーマに、Instruction Tuning および Parameter Efficient Fine-Tuning について体系的に紹介することを目指した内容となってい…

                                  LLM Fine-Tuning (東大松尾研LLM講座 Day5資料)
                                • Embeddingモデルを使ったベクトル化のしくみ、fine-tuning手法を解説

                                  How to Create Impact in a Changing Tech Landscape [PerfNow 2023]

                                    Embeddingモデルを使ったベクトル化のしくみ、fine-tuning手法を解説
                                  • Hugging FaceでOpenAIの音声認識”Whisper”をFine Tuningする方法が公開されました | DevelopersIO

                                    こんちには。 データアナリティクス事業本部 機械学習チームの中村です。 OpenAIがリリースしたWhisperについて、先日Hugging FaceのブログでHugging Faceのフレームワークを用いたfine-tuningの実行方法が紹介されました。 fine-tuningにより、自社で蓄積された音声や書き起こしのデータセットがある場合は、特化した学習をすることが可能です。 また著名なHugging Faceからfine-tuningの実装がリリースされたことで、今後様々なシーンでの応用の可能性を感じます。 Hugging FaceブログではHindi語を例として実施していますが、今回はこちらについて、日本語データを例にしながら動作を確認していきたいと思います。 概要 本記事では、Hugging Faceのフレームワークを用いたfine-tuningの実行を、日本語データセットを例

                                      Hugging FaceでOpenAIの音声認識”Whisper”をFine Tuningする方法が公開されました | DevelopersIO
                                    • LLM Supervised Fine-tuningの理論と実践

                                      「LLM Supervised Fine-tuningの理論と実践」のイベント資料になります。 https://connpass.com/event/337694/ 実装編のPythonコードは、以下からご覧ください。 https://colab.research.google.com/dri…

                                        LLM Supervised Fine-tuningの理論と実践
                                      • Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編〜 | 株式会社AI Shift

                                        こんにちは AIチームの戸田です 近年、自然言語処理タスクにおいて、BERTを始めとするTransformerをベースとした事前学習モデルを感情分類や質問応答などの下流のタスクでfine-tuningする手法が一般的になっています huggingfaceのTransformersなど、事前学習モデルを簡単に使うことのできるライブラリもありますが、Kaggleなどのコンペティションで上位に入るには素のモデルのままでは難しく、ヘッダや損失関数などの工夫などが必要です 本記事では私がKaggleのコンペティションに参加して得た、事前学習モデルのfine-tuningのTipsを共有させていただきます 書きたい内容が多くなってしまったので、今回は学習の効率化について、次回精度改善について、と2回に分けて書かせていただきます 事前準備 学習データとして、先日終了したKaggleのコンペティション、C

                                          Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編〜 | 株式会社AI Shift
                                        • OpenAIの音声認識モデル Whisperの解説 / Fine Tuning 方法

                                          OpenAIから、かなりすごい音声認識モデル Whisperが発表されました。特出すべき点は、教師付き音声68万時間という、かなりヤバめのデータ量で訓練しており、英語では商用の音声認識システムや人間の書き起こしに匹敵する性能とのことです。 社内でも日本語、ブルガリア語、韓国語で試してみましたが、すごい精度でした。日本語の場合、漢字の間違いが多々ありましたが、発音は大体あってそうでした。ブルガリア語は、ロシア語で認識されていました。韓国語は、完璧でした。 しかし、Githubに公開されたコードを見てみると、訓練コードが含まれておらず、公開の予定もないそうです。そこで、本記事では、Whisperの解説に加えて、Fine Tuningの方法を解説します。 ※ Fine Tungingを何となくで作成しているので、正確なコードではないです。気付いた点がありましたら、コメントください。 全てのコード

                                            OpenAIの音声認識モデル Whisperの解説 / Fine Tuning 方法
                                          • Fine-tuning GPT-3.5-Turbo for Natural Language to SQL

                                            Photo by Mariia Shalabaieva on UnsplashBackgroundAllowing non-technical users to ask questions from a database has been a problem of interest in academia and industry for years. The recent advances in Large Language Model (LLM) technology, such as GPT-4, have improved the accuracy of proposed solutions. However, since the most advanced LLMs have not been open for fine-tuning, recent work in the sp

                                              Fine-tuning GPT-3.5-Turbo for Natural Language to SQL
                                            • Fine-tuning: gpt-3.5-turboの活用事例。絵文字分類タスク改善のプロセスと、学びの言語化。|にょす

                                              みなさん、Fine-tuning使ってますか!? 一週間ほど前に、OpenAI社からgpt-3.5-turboがFine-tuning可能になったとのアップデートがありましたね。 ニュースを見て凄そうと思いつつ、少し作業のハードルがあったり、プロンプトエンジニアリングで事足りてるから、そんなに使わないかも?🤔と思ってました。 ただ今回、重い腰を上げて、Fine-tuningを試してみたら、想像以上の結果が得られたので、そのプロセスと学びをまとめます! システムに組み込む際の Prompt Engineering で苦戦している皆さん、Fine-tuningはかなり希望になると思います…!これからはPromptをゴニョゴニョするよりも、Fine-tuningに力を入れていこうと思いました。 ではまとめていきます! 前置きとこれまでの課題今回は、音声メモ日記アプリ「シャべマル」の絵文字分類タ

                                                Fine-tuning: gpt-3.5-turboの活用事例。絵文字分類タスク改善のプロセスと、学びの言語化。|にょす
                                              • NN時代のモダンな不均衡データ補正:undersamplingしたデータから得られたモデルを全データでfine-tuningする(論文紹介・ただし再現に失敗) - 渋谷駅前で働くデータサイエンティストのブログ

                                                何だか不均衡データ補正の話題は毎回tmaeharaさんからネタを頂戴している気がしますが(笑)、今回も興味深いネタを拝見したので試してみようと思います。 深層学習時代の class imbalance 対応が面白い。適当にバランシングしたデータセットで十分学習した後にフルデータセットでファインチューンするのがいいらしい。なんだこれ。— ™ (@tmaehara) 2022年5月11日 端的にまとめると「under/upsamplingで均衡させた改変データセットで学習したNNを、改めて全データセットでfine-tuningすれば不均衡データ補正が上手くいく」という論文があるらしく、しかも割とうまくいくので採用している後発論文が少なからずあるようだ、というお話です。 tmaeharaさんが引用されていたのはこちらの論文なんですが、IEEE公式サイトのものは僕は読めないので適当にarXivで探

                                                  NN時代のモダンな不均衡データ補正:undersamplingしたデータから得られたモデルを全データでfine-tuningする(論文紹介・ただし再現に失敗) - 渋谷駅前で働くデータサイエンティストのブログ
                                                • DiffusersベースでStable Diffusionをfine tuningする|Kohya S.

                                                  NovelAIの提案した学習手法、自動キャプションニング、タグ付け、Windows+VRAM 12GB(v1.4/1.5の場合)環境等に対応したfine tuningです。 ※12/17:v9に更新しました。「Diffusersの環境構築とスクリプトの準備」に飛んでください。 はじめに先日、DiffusersベースでDreamBoothを行う記事を書きましたが、U-Netの学習の仕組みを使うことでStable Diffusionのfine tuningが可能です。この記事ではその方法について解説します。以前のDreamBoothのスクリプトを流用したfine tuningよりも機能が追加されています。 ある程度の枚数(数百枚~が望ましいようです)の画像を用意することでDreamBoothよりもさらに柔軟な学習が可能です。 Pythonで仮想環境を構築できるくらいの方を対象にしています。また

                                                    DiffusersベースでStable Diffusionをfine tuningする|Kohya S.
                                                  • WhisperをFine Tuningして専門用語を認識可能にする

                                                    Whisperを少量のデータセットでFine Tuningして専門用語を認識可能にする方法を解説します。Tacotron2の合成音声でデータセットを作成することで、専門用語を認識可能なWhisperモデルを作成します。 WhisperについてWhisperはOpenAIの開発した音声認識モデルです。日本語を含む多言語に対応しており、高精度な音声認識が可能です。ただし、学習時に使用していない専門用語は認識できないという問題があります。 Whisperのアーキテクチャ(出典:https://huggingface.co/blog/fine-tune-whisper)Whisperにおける専門用語の扱いについてWhisperで専門用語を取り扱う場合、initial_promptに専門用語を埋め込むという方法があります。しかし、initial_promptにはコンテキストサイズの半分の224トーク

                                                      WhisperをFine Tuningして専門用語を認識可能にする
                                                    • Fine-Tuning Llama-2: Tailoring Models to Unique Applications

                                                      Fine-Tuning Llama-2: A Comprehensive Case Study for Tailoring Models to Unique Applications In this blog, we provide a thorough analysis and a practical guide for fine-tuning. We examine the Llama-2 models under three real-world use cases, and show that fine-tuning yields significant accuracy improvements across the board (in some niche cases, better than GPT-4). Experiments were carried out with

                                                        Fine-Tuning Llama-2: Tailoring Models to Unique Applications
                                                      • GitHub - huggingface/peft: 🤗 PEFT: State-of-the-art Parameter-Efficient Fine-Tuning.

                                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                          GitHub - huggingface/peft: 🤗 PEFT: State-of-the-art Parameter-Efficient Fine-Tuning.
                                                        • Amazon EC2でDeepSeekをfine-tuningしてみる | DevelopersIO

                                                          Introduction 現在当たり前になったOpenAI/Anthropic/Google等のLLMですが、ビジネスからプライベートまで どこでも活用されるようになってきました。ChatGPTの登場以降、AIとの対話が当たり前になり、 (私は)LLMがないと仕事ができないほどの状況になっています。 そんな中、先日ニュースになったのが、中国のAIスタートアップ「DeepSeek」が開発したモデル「DeepSeek-R1」です。 これはOpenAIのo1と同等性能を持つといわれており、OSS(MITライセンス)で公開しています。 本稿はDeepSeek-R1モデルをローカル(EC2)で動かしてみた作業ログです。 Local LLM 私の場合、ChatGPTやClaudeをWebブラウザやアプリ、APIを通じて利用しています。 これらのサービスは非常に手軽ですが、セキュリティ面での懸念や利用コ

                                                            Amazon EC2でDeepSeekをfine-tuningしてみる | DevelopersIO
                                                          • LLMのFine-Tuning手法まとめ - Qiita

                                                            パラメータの選択は、PIR の重要なステップで、タスク分析と重要度ランキングを通じて、タスクのパフォーマンスに最も大きな影響を与えるパラメータを特定します。 2-1.PIR を実装する主な方法 勾配ベースの重要度ランキング 勾配ベースの重要度ランキングは、LLM の各パラメーターに関する損失関数の勾配を計算することによって機能します。 パラメーターの勾配は、パラメーターが損失関数にどの程度影響を与えるかを示す尺度で、最も高い勾配を持つパラメーターが最も重要であるとみなされます。 ランダム フォレスト重要度ランキング ランダム フォレスト重要度ランキングは、LLM のパラメーターでランダム フォレスト モデルをトレーニングすることによって機能します。 ランダム フォレスト モデルの出力を予測するために最も重要なパラメーターは、LLM の最も重要なパラメーターであると考えられます。 実際には、

                                                              LLMのFine-Tuning手法まとめ - Qiita
                                                            • Fine-tuning 20B LLMs with RLHF on a 24GB consumer GPU

                                                              We are excited to officially release the integration of trl with peft to make Large Language Model (LLM) fine-tuning with Reinforcement Learning more accessible to anyone! In this post, we explain why this is a competitive alternative to existing fine-tuning approaches. Note peft is a general tool that can be applied to many ML use-cases but it’s particularly interesting for RLHF as this method is

                                                              • ChatGPTのfine-tuningで俺botを作ってみた話 - Qiita

                                                                Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに こんにちは、そこらへんのデータサイエンティストです。 突然ですが、みなさん(特に男性諸君)こんなこと思ったことありませんか? 彼女のLINEを返すのがめんどくさい 毎朝毎朝、「おはよう」をわざわざLINEで言わなければいけないのが嫌だ どうでもいい内容のメッセージに返信するのが億劫だ 自分の代わりに返信してくれるbotがあったら便利なのになぁ... と、いうわけで、自分っぽく返信してくれるbot、通称「俺bot」を作ってみることにしました。 俺botの作り方 ではどうやって俺botを作るのか。実は至って簡単で、誰でも作ることが

                                                                  ChatGPTのfine-tuningで俺botを作ってみた話 - Qiita
                                                                • 続・GPT-4oで画像解析をやってみた Fine-tuning編 - GMOインターネットグループ グループ研究開発本部

                                                                  TL;DR OpenAIは2024年10月1日に公開した新しいAPIの1つがVision Fine-tuningです。これはGPT-4oの画像認識能力を追加学習(ファインチューニング)できる新機能です。Vision Fine-tuning APIは、最低10枚の画像と期待する返答の学習データを準備するだけで、Web上で手軽に実行と検証が可能です。 今回、実験として美雲このはの画像を使ってキャラクターを認識させたり、問題のあるグラフの可視化を指摘させるなどの学習をさせて、期待通りの回答を得ることができました。なお、人物や顔、CAPTCHAなど利用規約に違反する画像は学習できない点に注意が必要です。 はじめに こんにちは、グループ研究開発本部・AI研究室のT.I.です。OpenAIでは、2024年10月1日に、いくつかの新しいAPIをリリースしました。今回のBlogでは、その1つであるvisi

                                                                    続・GPT-4oで画像解析をやってみた Fine-tuning編 - GMOインターネットグループ グループ研究開発本部
                                                                  • OpenAIが2つの新機能を発表、モデルのカスタマイズをより容易に ー fine-tuning APIの拡張とカスタムモデルプログラムの拡大

                                                                    4月5日、OpenAIが新たな機能改善としてfine-tuning APIの拡張とカスタムモデルプログラムの拡大を発表した。 fine-tuning APIの新機能 OpenAIは、GPT-3.5のfine-tuning APIに新しい機能を追加した。このAPIは、ユーザーがモデルの性能を向上させるための手法を提供し、特定のタスクに適したモデルを作成するのに役立つ。例えば、プログラミング言語に特化したコードの生成や、特定の形式でテキストを要約するためのモデルのトレーニング、ユーザーの行動に基づいて個別に作成されたコンテンツの作成などが挙げられる。 fine-tuning APIは、開発者が事前にトレーニングされたモデルを自分のデータに適応させるための柔軟性を提供する。これにより、モデルは特定のタスクやドメインに最適化され、より正確な結果を生成できる。また、このAPIは大規模なトレーニングデ

                                                                      OpenAIが2つの新機能を発表、モデルのカスタマイズをより容易に ー fine-tuning APIの拡張とカスタムモデルプログラムの拡大
                                                                    • ChatGPTでファインチューニング (Fine-tuning) を試してみた - PLAY DEVELOPERS BLOG

                                                                      こんにちは、プラットフォーム技術部開発第2グループの李です。 最近AIサービスChatGPTがよく注目されます。米国時間2023年8月22日にOpenAIは、大規模言語モデル「GPT-3.5 Turbo」がFine-tuningに対応したと発表しました。 openai.com 今回、このFine-tuningを試してみました。 Fine-tuningとは Fine-tuningのメリット プロンプトよりも高品質な結果が得られる プロンプトに収まりきらないほどの多くの例を学習できる 短いプロンプトによるトークンの節約 低レイテンシーのリクエスト OpenAI APIを使用したFine-tuningの手順 1. OpenAI APIキーを取得する 2. Fine-tuningの作業環境を準備する 3. トレーニングデータを準備する 4. トレーニングデータのフォーマットをチェックする 5. デ

                                                                        ChatGPTでファインチューニング (Fine-tuning) を試してみた - PLAY DEVELOPERS BLOG
                                                                      • Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker | Amazon Web Services

                                                                        AWS Machine Learning Blog Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker November 2022: The solution described here is not the latest best practice. The new HuggingFace Deep Learning Container (DLC) is available in Amazon SageMaker (see Use Hugging Face with Amazon SageMaker). For customer training BERT models, the recommended pattern is to use

                                                                          Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker | Amazon Web Services
                                                                        • ファインチューニング(Fine-tuning:微調整)とは?

                                                                          用語「ファインチューニング」について説明。「事前学習」した訓練済みニューラルネットワークモデルの一部もしくは全体を、別のデータセットを使って再トレーニングすることで、新しいタスク向けにモデルのパラメーターを微調整することを指す。 連載目次 用語解説 機械学習(厳密にはニューラルネットワーク)におけるファインチューニング(Fine-tuning:微調整)とは、あるデータセットを使って事前学習(Pre-training)した訓練済みモデルの一部もしくは全体を、別のデータセットを使って再トレーニングすることで、新しいタスク向けに機械学習モデルのパラメーターを微調整することである(図1)。一般的に、再トレーニングの際の学習率はより小さな値にするため、既に調整済みのパラメーターへの影響もより小さなものとなる。 ファインチューニングは、(広義の)転移学習(Transfer Learning)の一つのア

                                                                            ファインチューニング(Fine-tuning:微調整)とは?
                                                                          • Kaggleで学んだBERTをfine-tuningする際のTips⑤〜ラベルなしデータ活用編〜 | 株式会社AI Shift

                                                                            こんにちは!AIチームの戸田です! 本記事では私がKaggleのコンペティションに参加して得た、Transformerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます。 以前も何件か同じテーマで記事を書かせていただきました。 Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編 Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 Kaggleで学んだBERTをfine-tuningする際のTips③〜過学習抑制編〜 Kaggleで学んだBERTをfine-tuningする際のTips④〜Adversarial Training編〜 今回はラベルなしデータの活用について書かせていただきます。 世の中の様々な問題を、蓄積された大量のデータを使った教師あり学習で解こうとする試みは多くなされてい

                                                                              Kaggleで学んだBERTをfine-tuningする際のTips⑤〜ラベルなしデータ活用編〜 | 株式会社AI Shift
                                                                            • LLMに「自分自身との対戦」で能力を向上させる手法『Self-Play Fine-Tuning(SPIN)』 | AIDB

                                                                              LLMに自身の出力をアップデートさせ続け、品質を向上させる自己学習手法の一種が考案されました。実験では様々なテストスコアが上昇したとされています。 手法の名称は『Self-Play Fine-Tuning(SPIN)』と付けられています。 本記事では手法と実験結果を見ていきます。 参照論文情報 タイトル:Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models 著者:Zixiang Chen, Yihe Deng, Huizhuo Yuan, Kaixuan Ji, Quanquan Gu 所属:カリフォルニア大学 URL:https://doi.org/10.48550/arXiv.2401.01335 コード:https://github.com/uclaml/SPIN データセット:ht

                                                                                LLMに「自分自身との対戦」で能力を向上させる手法『Self-Play Fine-Tuning(SPIN)』 | AIDB
                                                                              • Parameter-Efficient Fine-Tuning using 🤗 PEFT

                                                                                🤗 PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware Motivation Large Language Models (LLMs) based on the transformer architecture, like GPT, T5, and BERT have achieved state-of-the-art results in various Natural Language Processing (NLP) tasks. They have also started foraying into other domains, such as Computer Vision (CV) (VIT, Stable Diffusion, LayoutLM) an

                                                                                  Parameter-Efficient Fine-Tuning using 🤗 PEFT
                                                                                • BERTのfine-tuning不安定性はどのように解決できるか?

                                                                                  3つの要点 ✔️ BERT等のTransformerベース事前学習モデルのfine-tuningの不安定性を分析 ✔️ 勾配消失による学習初期の最適化の難しさ、一般化の違いを不安定性の原因として特定 ✔️ fine-tuningの安定性を高める新たなベースラインを提案 On the Stability of Fine-tuning BERT: Misconceptions, Explanations, and Strong Baselines written by Marius Mosbach, Maksym Andriushchenko, Dietrich Klakow (Submitted on 8 Jun 2020 (v1), last revised 6 Oct 2020 (this version, v2)) Comments: Accepted to ICLR2021. Sub

                                                                                    BERTのfine-tuning不安定性はどのように解決できるか?

                                                                                  新着記事