タグ

ブックマーク / zenn.dev/derbuihan (2)

  • Xwin-LM-70B-V0.1をOpen Interpreterから使ってみる。

    はじめに 前回の記事で Xwin-LM-70B-V0.1 と Llama-2-70B の出力結果の比較しました。今回は Open Interpreter のバックエンドとして Xwin-LM-70B-V0.1 を使ってみます。 私の PC のスペック[1] i7 13700K 3090 24GB DDR5 128GB 準備 llama-cpp-python を CUDA を有効にしてインストールする。 sudo apt install -y build-essential cmake python3 python3-pip python-is-python3 \ && CUDA_PATH=/usr/local/cuda FORCE_CMAKE=1 CMAKE_ARGS='-DLLAMA_CUBLAS=on' \ pip install llama-cpp-python --force-re

    Xwin-LM-70B-V0.1をOpen Interpreterから使ってみる。
    misshiki
    misshiki 2023/09/25
    “Open InterpreterのバックエンドとしてXwin-LM-70B-V0.1を使ってみます。”
  • 【llama.cpp】Llama-2-70BとXwin-LM-70Bを出力を比較する。

    はじめに Xwin-LM-70B が、オープンな LLM として初めて GPT-4 を超える性能を叩き出したとして注目を集めています。[1]また、早速 Xwin-LM-70B を量子化したモデルが TheBloke に公開されています。 この記事では、llama.cpp を用いて Llama-2-70B と Xwin-LM-70B の出力結果の比較を行います。 Llama.cpp の環境構築については以下のスクラップいまとめました。 私の PC のスペック[2] i7 13700K 3090 24GB DDR5 128GB 質問 1 「素因数分解について説明してください。」 Llama-2-70B-Chat Q2 User: 素因数分解について説明してください。 Llama: Sure! In number theory, the prime factorization of an int

    【llama.cpp】Llama-2-70BとXwin-LM-70Bを出力を比較する。
    misshiki
    misshiki 2023/09/25
    Bが、オープンなLLMとして初めてGPT-4を超える性能を叩き出したとして注目を集めています。[1][自然言語処理]また、早速Xwin-LM-70Bを量子化したモデルがTheBlokeに公開されています。”
  • 1