エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
OllamaでGoogle Gemma 7Bをローカルで動かす | 合同会社ヴォール
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
OllamaでGoogle Gemma 7Bをローカルで動かす | 合同会社ヴォール
Ollamaとは Ollamaは、LLMモデルをデスクトップPCやノートPCなど、比較的低性能のPCを使って動かすため... Ollamaとは Ollamaは、LLMモデルをデスクトップPCやノートPCなど、比較的低性能のPCを使って動かすためのツールです。 今回使用したPCには、NVIDIA RTX A2000 8GBが載っており、7Bのモデル使用時には専用GPUメモリを7GB程度使用していました。 GPUが載っていないPCの場合には、 LM Studioを使えばローカルでCPUを使ってLLMを動かすことができます。 ローカルLLM Stable Code 3BをMacbook Airで動かして VSCodeから使ってみる Gemmaとは GemmaはGoogleが発表したオープンモデルのLLMです。 比較的サイズが小さいにも関わらず、高性能だと言われています。 実際、ノートPCでも動作します。 今回はOllamaにGemmaモデルをダウンロードしてノートPCにて動作させます。 Open WebUIとは Ope