はじめに Xwin-LM-70B が、オープンな LLM として初めて GPT-4 を超える性能を叩き出したとして注目を集めています。[1]また、早速 Xwin-LM-70B を量子化したモデルが TheBloke に公開されています。 この記事では、llama.cpp を用いて Llama-2-70B と Xwin-LM-70B の出力結果の比較を行います。 Llama.cpp の環境構築については以下のスクラップいまとめました。 私の PC のスペック[2] i7 13700K 3090 24GB DDR5 128GB 質問 1 「素因数分解について説明してください。」 Llama-2-70B-Chat Q2 User: 素因数分解について説明してください。 Llama: Sure! In number theory, the prime factorization of an int