エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
OllamaでGemmaをローカル実行!日本語処理とプログラミング能力を試してみた|AstroPomeAI
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
OllamaでGemmaをローカル実行!日本語処理とプログラミング能力を試してみた|AstroPomeAI
先日DeepmindからオープンソースモデルGemmaがリリースされました。大規模言語モデルをローカルで簡単に... 先日DeepmindからオープンソースモデルGemmaがリリースされました。大規模言語モデルをローカルで簡単に実行できるツールOllamaかGemmaを利用してみます。 Ollama now supports Google Gemma! (Please update to v0.1.26) 2B model: ollama run gemma 7B model: ollama run gemma:7b Learn more:https://t.co/ULq9L3PHTJ You can run non-quantized versions via Ollama (if video memory is sufficient): ollama run gemma:2b-instruct-fp16… https://t.co/Hti1kpc8Sz — ollama (@ollama) Febru