エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Google Colab で Llama.cpp + Vicuna-v1.5 を試す|npaka
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Google Colab で Llama.cpp + Vicuna-v1.5 を試す|npaka
「Google Colab」で「Llama.cpp + Vicuna-v1.5」を試したのでまとめました。 1. Vicuna-v1.5のGGMLモデ... 「Google Colab」で「Llama.cpp + Vicuna-v1.5」を試したのでまとめました。 1. Vicuna-v1.5のGGMLモデル「Vicuna-v1.5」で提供されている「GGML」モデルは、次の4つです。 ・TheBloke/vicuna-7B-v1.5-GGML ・TheBloke/vicuna-7B-v1.5-16K-GGML ・TheBloke/vicuna-13B-v1.5-GGML ・TheBloke/vicuna-13B-v1.5-16K-GGML 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) モデルのダウンロード。 今回は、「vicuna-7b-v1.5.ggmlv3.q4_K_M.bin」を使います。 !wget https://huggingface.co/TheBloke/vicuna-7B-v1.5-GGML/r