エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Falcon-180Bをllama.cppで試してみる?(RAM96GB / VRAM 24GB)
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Falcon-180Bをllama.cppで試してみる?(RAM96GB / VRAM 24GB)
$ wget https://huggingface.co/TheBloke/Falcon-180B-Chat-GGUF/resolve/main/falcon-180b-chat.Q2_K.g... $ wget https://huggingface.co/TheBloke/Falcon-180B-Chat-GGUF/resolve/main/falcon-180b-chat.Q2_K.gguf-split-a $ wget https://huggingface.co/TheBloke/Falcon-180B-Chat-GGUF/resolve/main/falcon-180b-chat.Q2_K.gguf-split-b $ cat falcon-180b-chat.Q2_K.gguf-split-* > falcon-180b-chat.Q2_K.gguf && rm falcon-180b-chat.Q2_K.gguf-split-* 0[| 0.7%] 4[ 0.0%] 8[|| 2.0%] 12[ 0.0%] 16[ 0.0%] 20[ 0.0%] 24[ 0.0%] 2