
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
第849回 ローカルLLMの実行ツール「Ollama」のGUIフロントエンド、Alpacaを使用して生成AIを使用する[Radeon編] | gihyo.jp
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
第849回 ローカルLLMの実行ツール「Ollama」のGUIフロントエンド、Alpacaを使用して生成AIを使用する[Radeon編] | gihyo.jp
筆者は2.5インチSSDを入れ替えることによって複数の検証環境を用意しています。さらにパッケージのビル... 筆者は2.5インチSSDを入れ替えることによって複数の検証環境を用意しています。さらにパッケージのビルド環境も兼ねているためこのようなCPUを搭載していますが、生成AIを動作させるだけであればこれほどのCPUパワーは不要です。 ポイントはやはりRX7800XT CL 16GOで、スロットを2.5個分使用することを許容できるのであれば、なかなかにいい選択肢と考えます。どうしても2スロットで抑えたい場合や、 7.5万円(筆者の購入価格)の捻出が難しい場合は、下位モデルであるRX7600XT CL 16GOでもいいでしょう。しかし1.5倍の価格差でストリームプロセッサが約2倍、メモリーの帯域が2倍であることを考えると、RX7800XT CL 16GOがおすすめではあります。 Alpacaのインストール Alpacaのインストールは第841回に書いてあるとおりです。 $ flatpak insta