タグ

ブックマーク / note.com/bakushu (2)

  • 【ローカルLLM】llama.cppの量子化バリエーションを整理する|Baku

    「llama.cpp」はMacBookなどでLlamaベースの大規模言語モデルを動かすことを目標とするアプリケーション。一応CPUのみでも実行でき、GPUの非力な環境でも動かしやすい。 llama.cppの量子化モデルllama.cpp(GGML)では量子化によるモデルサイズ縮小が進んでいる。例えば、下記のHuggingFaceのRepoを見ると、GGML量子化モデルは「q4_0, q4_1, q5_0, q5_1, q8_0, q2_K, q3_K_S, q3_K_M, q3_K_L, q4_K_S, q4_K_M, q5_K_S, q5_K_M, q6_K」と多岐にわたる。 Model cardに解説があるものの、専門的で素人にはサイズ以外の違いが分からない。もう少しやさしい説明がないか調べたところ、llama.cppの"quantize"コマンド内に整理されていると知ったので、和訳し

    【ローカルLLM】llama.cppの量子化バリエーションを整理する|Baku
    stealthinu
    stealthinu 2023/08/30
    llama.cppにおける量子化の手法とbit数での品質低下度合い。この辺の技術を音声のほうに持って行けるだけの知識がない。
  • 日本語LLMのベンチマーク:「JGLUE」と「Rakuda Benchmark」|Baku

    LINEの「japanese-large-lm-instruction-sft」リリースに関する公式ブログで「Rakuda Benchmark」という日語LLMベンチマークがモデルの性能評価に使われていた。 これまで日語LLMのリリースでよく見たのは「JGLUE(日語一般言語理解評価)」というベンチマーク。何が違うのか簡単に調べてみた。 JGLUE(日語一般言語理解評価)「JGLUE」は、早稲田大学とYahoo! JAPANが構築・公開したベンチマーク。 ベンチマークの具体的な構成については、以下の記事に詳しい。 この「JGLUE」のスコアでLLMの日語性能をランク付けしたリーダーボードには、「Nejumi LLMリーダーボード」や、Stability AIによる「JP Language Model Evaluation Harness」がある。 Nejumi LLMリーダーボー

    日本語LLMのベンチマーク:「JGLUE」と「Rakuda Benchmark」|Baku
    stealthinu
    stealthinu 2023/08/19
    Rakuda Benchってなんだろ?と思ってたからありがたい。んでLLM使ったプロダクトの評価をどうするか問題、今まさにどうすればいいかと思ってたからとても参考になる。やはりGPT-4に評価という方向か。
  • 1