タグ

ブックマーク / note.com/npaka (2)

  • LLMのファインチューニング で 何ができて 何ができないのか|npaka

    LLMのファインチューニングで何ができて、何ができないのかまとめました。 1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。 OpenAIのドキュメントには、次のように記述されています。 ファインチューニングは、プロンプトに収まるよりも多くの例で学習することで、Few-Shot学習を改善します。一度モデルをファインチューニングすれば、プロンプトにそれほど多くの例を提供する必要がなくなります。これにより、コストを削減し、低レイテンシのリクエストを可能にします。 しかし実際には、それよりもかなり複雑です。 LLMには「大量のデータを投げれば自動的に解決する」ような創発的な特性があるため、ファインチューニングもそのように機能すると人々は考えていますが、必ずしもそうではありませ

    LLMのファインチューニング で 何ができて 何ができないのか|npaka
    nakaoka3
    nakaoka3 2023/08/29
  • Google Colab で Japanese StableLM Alpha を試す|npaka

    Google Colab」で「Japanese StableLM Alpha」を試したので、まとめました。 【最新版の情報は以下で紹介】 1. Japanese StableLM AlphaJapanese StableLM Alpha」は、「Stability AI Japan」が開発した70億パラメータの日語LLMです。ベンチマーク「lm-evaluation-harness」による複数の日語タスクを用いた性能評価において、一般公開されている日語向けモデルで最高の性能を発揮しています。 2. Japanese StableLM Alphaのモデル「Japanese StableLM Alpha」では、次の2種類のモデルが提供されています。 ・stabilityai/japanese-stablelm-base-alpha-7b : ベースモデル ・stabilityai/ja

    Google Colab で Japanese StableLM Alpha を試す|npaka
    nakaoka3
    nakaoka3 2023/08/11
  • 1