タグ

Llama 2に関するmisshikiのブックマーク (3)

  • https://twitter.com/ai_database/status/1750132330197631188

    misshiki
    misshiki 2024/01/25
    “GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する方法が、NVIDIAより発表されました。 長文ドキュメントに基づいてユーザーの問いに答える能力でGPT-3.5より遥かに勝る結果が示されています。”
  • llama2のpretrainingを試す

    小さいサイズのllama2を日語でpre_trainingしてみます。 この記事では、以下が参考になれば良いかと思います pre_trainingのやり方 llama2の実装 huggingfaceへのupload すべてgoogle colab上で実行します。 今回学習したモデルはここ 学習にはlit-gptを使います。 lit-gptはlit-llamaのforkです。こちらの実装の参考になるのでコードを眺めてみるのもおすすめです。 データセットの作成 まずは学習用のデータセットを作成します。 以下のコードを参考に、huggingface hubにあるデータセットから学習用のデータセットを作れるように修正します。 作成したものは以下 tokenizerはhuggingface.tokenizersライブラリを使うようにしているので、適宜読み替えてください。 tokenizerには前回

    llama2のpretrainingを試す
    misshiki
    misshiki 2023/10/23
    “pre_trainingのやり方 llama2の実装、huggingfaceへのupload。すべてgoogle colab上で実行します。”
  • Llama

    Llama is the next generation of our open source large language model, available for free for research and commercial use.

    Llama
    misshiki
    misshiki 2023/07/19
    “次世代のオープンソース大規模言語モデル: Llama 2 は研究および商用目的に無料で利用できます” 非常に分かりやすいページで利用が広がりそうだと思った。
  • 1