エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Ryzen AI Max+ 395 (EVO-X2) で llama-server を使って gpt-oss:20b/120b を使う - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Ryzen AI Max+ 395 (EVO-X2) で llama-server を使って gpt-oss:20b/120b を使う - Qiita
FROM ubuntu:24.04 # 必要パッケージ RUN apt-get update && apt-get install -y --no-install-recommen... FROM ubuntu:24.04 # 必要パッケージ RUN apt-get update && apt-get install -y --no-install-recommends \ git build-essential cmake \ libvulkan-dev mesa-vulkan-drivers libvulkan1 \ glslc libcurl4-openssl-dev curl ca-certificates \ && rm -rf /var/lib/apt/lists/* WORKDIR /opt RUN git clone --depth=1 https://github.com/ggml-org/llama.cpp.git WORKDIR /opt/llama.cpp RUN cmake -B build -DGGML_VULKAN=ON && cmake --

