エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【Cyberagent日本語版】DeepSeek-R1-Japanese-14Bを使ってみた話④【ローカルLLM】|Catapp-Art3D
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【Cyberagent日本語版】DeepSeek-R1-Japanese-14Bを使ってみた話④【ローカルLLM】|Catapp-Art3D
GGUFフォーマットに変換軽量化されていないhuggingfaceフォーマットのままなので、ollamaで利用するには... GGUFフォーマットに変換軽量化されていないhuggingfaceフォーマットのままなので、ollamaで利用するにはggufフォーマットに変換する必要があります。 しばらくすれば有志の方がggufフォーマット版を公開すると思われますが、自分で量子化+ggufする場合は、以下の手順を利用します。 (推論等いろいろできるユーティリティです)gguf変換にllama.cppを利用します。 llama.cppのコマンド群をビルドした後に、以下のコマンドを利用します。 # CyberAgent huggingfaceのデータを取得 git clone https://huggingface.co/cyberagent/DeepSeek-R1-Distill-Qwen-14B-Japanese # bf16のggufフォーマットに変換 python convert_hf_to_gguf.py --o