並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 48件

新着順 人気順

Gemmaの検索結果1 - 40 件 / 48件

Gemmaに関するエントリは48件あります。 AI人工知能LLM などが関連タグです。 人気エントリには 『中島聡がガチでテスト、「今一番賢いローカルAI」のすごい実力。Phi-4やGemma3を知らない人、そろそろヤバいかもです - まぐまぐニュース!』などがあります。
  • 中島聡がガチでテスト、「今一番賢いローカルAI」のすごい実力。Phi-4やGemma3を知らない人、そろそろヤバいかもです - まぐまぐニュース!

    著名エンジニアの中島聡氏が、オープンソースの各種AIモデルをローカル環境(MacBook Pro)でテストしその実力を評価。それらが私たちのビジネスにどのような変化を起こすかを予測する。中島氏によれば、MicrosoftのPhi-4に代表されるSLM(小規模言語モデル)の能力がLLM(大規模言語モデル)並みに上昇することで、法人向けエンタープライズ市場では近い将来、クラウド上のAIサービスではなく、個人のパソコンや社内のAIサーバーでオープンソースなSLMを走らせるのが主流になるという。(メルマガ『週刊 Life is beautiful』より) ※本記事のタイトル・見出しはMAG2NEWS編集部によるものです プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシントン大学)。NTT通信研究所/マイクロソフト日本法人/マ

      中島聡がガチでテスト、「今一番賢いローカルAI」のすごい実力。Phi-4やGemma3を知らない人、そろそろヤバいかもです - まぐまぐニュース!
    • MacBookで無料AI。「ローカルLLM」がいい感じに進化してます

      MacBookで無料AI。「ローカルLLM」がいい感じに進化してます2025.07.21 08:0055,424 かみやまたくみ ローカルLLMとは、ざっくり言ってしまうと「無料で公開されている大規模言語モデル」のことで、自分のPCにダウンロード・専用ソフトで読み込んで使います。ChatGPTのように会話できますし、API利用(対応アプリや自分で作ったプログラムからAIを呼び出して使う)も可能です。 ChatGPTといった主流のAIはサブスクリプションサービス、API利用は従量課金制となっているので、対極に位置するAIだと言えます。 そんなローカルLLMですが、これまでは一部の通な人が使うものって感じでした。一時期話題になったDeepSeekのように非常に性能がいいものも登場していますが、動かすのにとても性能のいいマシンが必要です。ChatGPTに数年課金してもまだそっちのほうが安いという

        MacBookで無料AI。「ローカルLLM」がいい感じに進化してます
      • みんなこれでいいAI。Googleの最新ローカルLLM「Gemma 4」は日本語うますぎ、でも無料

        Gemma 4シリーズは動作デバイスと性能の観点から、2種に分類できます。 ・E2B・E4B:普通のノートPCで動かせる軽量モデル ・26B-A4B:ハイエンドマシンで動かす高性能モデル いずれも非常に実用性が高いモデルとなっており、とりあえず動かせるものを選べばOKです。 Apache 2.0ライセンスで提供されており、個人利用はもちろんのこと、商用での利用も可能です。 専門サイトによる評価も高い「Gemini 3の研究・技術に基づいてローカルLLMの限界を引き上げるようにGemma 4を開発した」とGoogleは述べていますが、これは煽り文句ではありません。 AI評価サイト「Arena.ai」における一部ローカルLLMの性能評価グラフ。gemma-4-31B・gemma-4-26B-A4Bはサイズに対する評価が高くなっているImage: GoogleAI評価サイト「Arena.ai」で

          みんなこれでいいAI。Googleの最新ローカルLLM「Gemma 4」は日本語うますぎ、でも無料
        • Gemma 3やQwQなどでローカルLLMがそろそろ使い物になってきた - きしだのHatena

          GoogleからGemma 3が出たり、AlibabaがQwQを出したりで、27Bや32BでDeepSeek V3の671Bに匹敵すると言っていて、小さいサイズや2bit量子化でも実際結構賢いので、普通の人がもってるPCでもローカルLLMが実用的に使える感じになってきています。 Gemma 3 Gemma 3は単一GPUで動くLLMで最高と言ってます。 https://blog.google/technology/developers/gemma-3/ 1B、4B、12B、27Bがあって、最高なのは27Bだけど、今回はLM Studioで12Bの4bit量子化版を使います。 LM Studioはここ。モデルのダウンロード含め、わかりやすいです。 https://lmstudio.ai/ とりあえず知識確認でJavaのバージョン履歴を。だいたいあってる! JDK13のリリース年だけ違うけど、

            Gemma 3やQwQなどでローカルLLMがそろそろ使い物になってきた - きしだのHatena
          • Google、オープンな生成AIモデル「Gemma」公開 商用利用OK、Geminiと同じ技術の軽量LLM

            また、Gemmaの事前トレーニング済みモデルでは、学習データから特定の個人情報やその他の機密データを除外していると安全性もアピール。開発者や研究者向けに、安全で責任あるAIアプリケーションを構築できるというツールキット「Responsible Generative AI Toolkit」も併せて公開している。 関連記事 Google、“現行最強”の生成AI発表 月2900円で利用可 チャットAIサービスはBard→Geminiに刷新 米Googleは2月8日(現地時間)、「現行最強」をうたう生成AI「Gemini Advanced」を発表した。すでにサービスを提供開始しており、月額2900円で利用可能。2カ月間の無料試用期間も用意する。 Google、「Gemini 1.5 Pro」限定リリース コンテキストウィンドウは100万トークン Googleは、生成AIの次世代モデル「Gemini

              Google、オープンな生成AIモデル「Gemma」公開 商用利用OK、Geminiと同じ技術の軽量LLM
            • ローカルLLM(Gemma4)× AIVIS Speech で音声チャットの応答を「1秒未満」にした話 - Qiita

              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

                ローカルLLM(Gemma4)× AIVIS Speech で音声チャットの応答を「1秒未満」にした話 - Qiita
              • Google、超軽量、低消費電力モデル「Gemma 3 270M」をリリース | gihyo.jp

                Google⁠⁠、超軽量⁠⁠、低消費電力モデル「Gemma 3 270M」をリリース Googleは2025年8月14日、2億7000万パラメータをもつコンパクトなモデル「Gemma 3 270M」をリリースした。 Introducing Gemma 3 270M: The compact model for hyper-efficient AI -Google Developers Blog The model is built for fine-tuning on focused tasks where efficiency is everything: 🔹 Massive 256k vocabulary for expert fine-tuning 🔹 Extreme energy efficiency for on-device AI 🔹 Production-ready w

                  Google、超軽量、低消費電力モデル「Gemma 3 270M」をリリース | gihyo.jp
                • Gemma

                  Ensuring AI safety through proactive security, even against evolving threats

                    Gemma
                  • Gemma 4 - ローカルでの実行方法 | Unsloth Documentation

                    ✨Gemma 4 - ローカルでの実行方法Googleの新しいGemma 4モデルをローカルで実行しましょう。E2B、E4B、26B A4B、31Bを含みます。 Gemma 4はGoogle DeepMindの新しいオープンモデル群で、以下を含みます E2B, E4B, 26B-A4B、および 31B。 このマルチモーダルなハイブリッド思考モデルは140以上の言語、最大 256Kコンテキストをサポートし、Dense版とMoE版があります。Gemma 4はApache-2.0ライセンスで、ローカルデバイス上で実行できます。 Gemma 4を実行するGemma 4をファインチューニングする Gemma-4-E2B および E4B 画像と音声をサポートします。実行先: 5GB RAM (4-bit)または15GB(完全な16-bit精度)。 Gemma-4-26B-A4B は 18GB (4-b

                      Gemma 4 - ローカルでの実行方法 | Unsloth Documentation
                    • AITuber奮闘記:ローカルLLMでゲーム実況、モデル選定と配信テストの記録|与野

                      前回のテストでコメント反応とゲーム実況が排他になること、ローカル LLM はゲームタイトルなどの情報を持っていないことが分かりました。コメント反応との両立は AITuberKit 側の対応待ちになるため、今回はローカル LLM でどこまでゲーム実況ができるかを確認することにしました。 テスト環境AITuberKit の設定マルチモーダル機能を有効化 カメラを有効化し、OBS の仮想カメラを設定 OBS の仮想カメラを共有 OBS の設定仮想カメラを有効化 仮想カメラの映像対象をゲーム画面に設定 ゲーム実況の仕組みAITuberKit の API(/user_input)を使い、バッチ処理で 90 秒ごとにリクエストを送信します。AITuberKit がリクエストを受け取ったタイミングで共有されている画像を取得し、それに対してコメントを返すという流れです。 モデル選定ローカル LLM はゲー

                        AITuber奮闘記:ローカルLLMでゲーム実況、モデル選定と配信テストの記録|与野
                      • Gemma 4を8GBのMacBook Neoで動かしたらAIが開眼。KVキャッシュ量子化組み込みでさらに進化しちゃった(CloseBox) | テクノエッジ TechnoEdge

                        Bonsai 8Bはウェイトがたった1.1GBなので、残りの約5GBをKVキャッシュに回せるメリットがあります。結果として8Bパラメータの品質を保ちながら32Kトークンのコンテキストが取れます。「8GBでは3Bモデルが限界」という常識を覆した前回の話の続きですが、コンテキスト長でもBonsaiの圧勝です。 Gemma 4 E2BはOllamaのQ4_K_M量子化で7.2GBですが、ビジョンとオーディオのエンコーダーを含んでいるため見た目の数字ほど重くありません。Ollamaのmmap機構により、テキスト処理時にはビジョン/オーディオ部分はRAMに読み込まれない。さらにKV heads=1、Shared KV layers=20という効率的な設計のおかげで、KVキャッシュは32Kでもわずか0.38GB。実測でも32Kコンテキストで27.8 tok/sが出ています。 Qwen3 8Bに至っては

                          Gemma 4を8GBのMacBook Neoで動かしたらAIが開眼。KVキャッシュ量子化組み込みでさらに進化しちゃった(CloseBox) | テクノエッジ TechnoEdge
                        • Qwenが閉じ始めたのでGemma 4を選んだ——GPUなしPCでローカルLLMをファインチューニング

                          ※ 日本語の ◎◎ は日本語特化モデル(Llama 3.1ベースを日本語データで追加学習したもの) ※ ライセンス: Apache 2.0・MITは商用利用OK・改変自由。Meta/Llama Communityは商用OKだが利用規約への同意が必要 Qwenは日本語が強くてライセンスも緩い。最初はこれで決まりだと思った。 はずだった。 Qwenが閉じ始めてる Qwen 3.5を使おうと思って調べていたら、不穏な記事を見つけた。 ファクトチェックしてみたら、全部本当だった。正直、ここまでとは思わなかった。 2026年3月以降に起きたこと: 技術リード(Lin Junyang)が事実上の解任。「辞任」と発表されたが、チームメンバーが「自分の意思ではなかった」と示唆してる コアメンバーがMetaやByteDanceへ流出 後任にはGoogle DeepMindのGemini開発者を招聘。商業化シ

                            Qwenが閉じ始めたのでGemma 4を選んだ——GPUなしPCでローカルLLMをファインチューニング
                          • Ollama

                            $ ollama launch openclaw Installing OpenClaw... Configuring model... Adding web tools... ✓ OpenClaw is running Start local. Scale with cloud. Ollama's cloud gives you access to faster, larger models when you need them. Access larger models on datacenter-grade hardware Run many requests in parallel Get real-time information from the web Included free with an Ollama account Create account

                              Ollama
                            • 無料でGoogleのローカルAI「Gemma 4」の威力がGoogle公式アプリ「AI Edge Gallery」で誰でも試せるように、iPhoneでもローカル動作可能

                              Googleが2026年4月2日に発表したオープンソースAIモデル「Gemma 4」がGoogle公式アプリ「Google AI Edge Gallery」で提供されています。この「AI Edge Gallery」が4月3日からiOS向けにも配信されており、iPhone上でもGemma 4をローカルで動作させることが可能になったとのことで、実際に試してみました。 Gemma 4 can run on phones without an internet connection! ???? It can perform local agentic tasks, such as logging and analyzing trends. When connected, it can also make API calls. Want to try it yourself? Get the Goo

                                無料でGoogleのローカルAI「Gemma 4」の威力がGoogle公式アプリ「AI Edge Gallery」で誰でも試せるように、iPhoneでもローカル動作可能
                              • チャットも画像生成もローカルで実行できるAIアプリ「Gerbil」を使ってみた

                                「Gerbil」は大規模言語モデルや画像生成モデルをローカルで実行できるPC向けのアプリです。チャットAIとして使えたりFLUXを用いて高品質な画像を生成できたりして面白そうだったので、実際に使ってみました。 GitHub - lone-cloud/gerbil: A desktop app for running Large Language Models locally. https://github.com/lone-cloud/gerbil GerbilはWindows・macOS・Linuxで使えるアプリです。今回はWindowsで実行してみます。まず、ダウンロードページにアクセスして最新版のインストーラーをダウンロード。今回は「Gerbil-Setup-1.8.5.exe」をダウンロードしました。 インストーラーのダウンロードが完了したらダブルクリックして実行します。 セキュリ

                                  チャットも画像生成もローカルで実行できるAIアプリ「Gerbil」を使ってみた
                                • Gemma 4 MTP を DGX Spark で動かして日本語生成の高速化を実測してみた | DevelopersIO

                                  はじめに こんにちは、クラスメソッド製造ビジネステクノロジー部の森茂です。 先日の Gemma 4 ベンチマーク記事 の続編です。Google が 2026-05-05 に発表した Gemma 4 MTP(Multi-Token Prediction)を DGX Spark で動かしてみました。 ざっくり言うと MTP は、本体モデルとは別に「次のトークンを先回りして予測する軽量な下書き役」を用意して、本体モデルがまとめて検証することで生成を速くする仕組みです。この種の技術は speculative decoding(投機的デコーディング)と呼ばれていて、Gemma 4 では本体(target)と下書き役(drafter)のペアモデルが Google から公式に配布されているのがポイントです。 Google の公式ブログでは「最大 3 倍の高速化」と謳っていますが、個人的に気になったのは「

                                  • 翻訳特化のAIモデル「TranslateGemma」をGoogleが公開、日本語も対応

                                    Googleが、「Gemma 3」モデルを基盤とした翻訳モデル群「TranslateGemma」を発表しました。 TranslateGemma: A new family of open translation models https://blog.google/innovation-and-ai/technology/developers-tools/translategemma/ TranslateGemma Technical Report - 2601.09012v2.pdf (PDFファイル)https://arxiv.org/pdf/2601.09012 🗣 Introducing TranslateGemma, our new collection of open translation models built on Gemma 3. The model is avai

                                      翻訳特化のAIモデル「TranslateGemma」をGoogleが公開、日本語も対応
                                    • 【西川和久の不定期コラム】 スマホローカルで動作し、画像も認識するLLM!Google「Gemma 3n」を試してみた

                                        【西川和久の不定期コラム】 スマホローカルで動作し、画像も認識するLLM!Google「Gemma 3n」を試してみた
                                      • Google、「Gemma 3」ベースの翻訳特化モデル「TranslateGemma」公開 日本語含む55言語に対応

                                        米Googleは1月15日(現地時間)、オープンなAIモデル「Gemma 3」をベースにした翻訳特化モデル群「TranslateGemma」を発表した。高品質な翻訳を、より小さなモデルサイズで実現することを狙ったオープン翻訳モデルの新しいスイートと位置付けている。日本語を含む55言語をサポートし、4B、12B、27Bの3サイズを用意した。 翻訳エラーを追跡する指標である「MetricX」を用いて品質を測定(スコアが低いほど高精度)したところ、12B TranslateGemmaのスコアは3.60で、27BのGemma 3ベースモデルの4.04を上回った。同じサイズのGemma 3の12Bベースモデルと比較すると、エラー率は約26%低下した。

                                          Google、「Gemma 3」ベースの翻訳特化モデル「TranslateGemma」公開 日本語含む55言語に対応
                                        • 小型AIで下書きを生成して大型AIを爆速化する「マルチトークン予測」という技術をGoogleが発表

                                          Googleが小型AIを用いて投機的予測を実行することで大型AIの処理を高速化する技術「Multi-token-prediction(マルチトークン予測)」を発表しました。 Multi-token-prediction in Gemma 4 https://blog.google/innovation-and-ai/technology/developers-tools/multi-token-prediction-gemma-4/ マルチトークン予測で Gemma 4 を高速化する  |  Google AI for Developers https://ai.google.dev/gemma/docs/mtp/overview?hl=ja 既存のAIモデルは複雑な推論と単純な推論に同等規模の計算処理を必要とします。例えば「猿も木から」に続く単語は「落ちる」であると容易に推測できますが、

                                            小型AIで下書きを生成して大型AIを爆速化する「マルチトークン予測」という技術をGoogleが発表
                                          • Accelerating Gemma 4: faster inference with multi-token prediction drafters

                                            Accelerating Gemma 4: faster inference with multi-token prediction drafters

                                              Accelerating Gemma 4: faster inference with multi-token prediction drafters
                                            • ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測

                                              ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測 Ollamaを使ってローカル環境で動かした3ファミリー・6サイズのLLMを、5つのユースケースカテゴリで定量的にベンチマークしました。「どのモデル・サイズを選ぶか」の判断材料として活用してください。 実験環境・設定 ハードウェア 項目 値

                                                ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測
                                              • GoogleのオープンモデルAI「Gemma 4」は商用解禁。動画・音声対応で大幅強化

                                                  GoogleのオープンモデルAI「Gemma 4」は商用解禁。動画・音声対応で大幅強化
                                                • グーグル、軽量でオープンな新AIモデル「Gemma」

                                                    グーグル、軽量でオープンな新AIモデル「Gemma」
                                                  • Google、オープンなAIモデル「Gemma 3」リリース マルチモーダル対応 モデルサイズは4種類

                                                    Gemma3は、同社の「Gemini」と同じ技術を活用したオープンなLLM「Gemma」シリーズの最新モデル。旧シリーズでは2サイズでの展開だったが、Gemma 3では10億パラメータをはじめ、40億、120億、270億と4種類のモデルサイズを用意。270億パラメータモデルでは、米OpenAIの「o3-mini」や中国DeepSeekの「v3」などを上回る性能をベンチマークで示したとしている。 また、Gemma 3では画像や動画もサポート(1Bモデルを除く)。140以上の言語を扱えるという。12万8000のコンテキストウィンドウを備えており、関数呼び出しや構造化出力にも対応。公式に「量子化版」(性能を維持しながら計算負荷を削減したバージョン)も提供するとしている。 Gemma 3は「Google AI Studio」で利用できるほか、KaggleやHugging Faceからダウンロードで

                                                      Google、オープンなAIモデル「Gemma 3」リリース マルチモーダル対応 モデルサイズは4種類
                                                    • Google、エージェント特化の「Gemma 4」をApache 2.0で公開

                                                      米Googleは4月2日(現地時間)、高性能オープンモデル「Gemma 4」をリリースした。最大の特徴は、高度な推論や多段階の計画、エージェント型のワークフローに特化して設計されている点と、Gemmaシリーズとして初めて商用利用の自由度が高いApache 2.0ライセンスで公開されたことだ。 先代の「Gemini 3」と同じ研究と技術に基づいて構築されており、テキストに加えて画像や動画の処理に対応するほか、システムプロンプトや関数呼び出しをネイティブにサポートしている。 提供されるモデルは、モバイルやIoTデバイスでの実行に向けてメモリ効率を最大化した「E2B」(Effective 2B)と「E4B」、パソコン上で高速な推論を実現する「26B MoE」(Mixture of Experts)、ファインチューニングの強力な基盤となる「31B Dense」の4種類。 小型のE2BとE4Bは音声

                                                        Google、エージェント特化の「Gemma 4」をApache 2.0で公開
                                                      • Gemma 4 を DGX Spark で動かして日本語とマルチモーダルをベンチマークしてみた | DevelopersIO

                                                        「E」は Effective の略で、Per-Layer Embeddings(PLE)という技術でパラメータ効率を高めた小型モデルです。各デコーダ層に補助的な埋め込みテーブルを持たせることで、少ないパラメータでも表現力を高めています。26B-A4B は Mixture-of-Experts(MoE)で、全体は 26B ですが推論時に使われるのは 3.8B だけという効率重視の設計です。 E2B と E4B はテキストと画像に加えてオーディオ入力にも対応しています(ただし Ollama では 2026 年 4 月時点でオーディオ未サポート)。 ライセンス Gemma 4 は Apache 2.0 ライセンスで公開されています。Gemma 3 までは独自の「Gemma Terms of Use」で、商用利用に一部制限がありました。Apache 2.0 になったことで、改変や再配布を含む商用利

                                                        • Google DeepMind、「Gemma 4」を発表 ~ライセンスは商用可能な「Apache 2.0」に/他のローカルモデルの1/20サイズで同等のパフォーマンス

                                                            Google DeepMind、「Gemma 4」を発表 ~ライセンスは商用可能な「Apache 2.0」に/他のローカルモデルの1/20サイズで同等のパフォーマンス
                                                          • Google、Gemma 3ベース、55言語を網羅したオープンな翻訳モデルTranslateGemmaをリリース | gihyo.jp

                                                            Google⁠⁠、Gemma 3ベース⁠⁠、55言語を網羅したオープンな翻訳モデルTranslateGemmaをリリース Googleは2026年1月15日、Gemma 3ベースの翻訳モデル「TranslateGemma」を、Apache 2.0ライセンスのもとオープンソースとしてリリースした。日本語を含む55言語に対応し、4B、12B、27Bのパラメータモデルが用意されている。 TranslateGemma: A new suite of open translation models We’re releasing TranslateGemma, a new family of open translation models with support for 55 languages. 🌐 Available in 4B, 12B, and 27B parameter sizes –

                                                              Google、Gemma 3ベース、55言語を網羅したオープンな翻訳モデルTranslateGemmaをリリース | gihyo.jp
                                                            • Googleがファインチューニングしやすいビジュアル言語モデル「PaliGemma 2」をリリース

                                                              Googleが2024年12月5日に、オープンかつ軽量な言語モデル「Gemma 2」をベースに視覚機能を追加したビジュアル言語モデルの「PaliGemma 2」を発表しました。 Introducing PaliGemma 2: Powerful Vision-Language Models, Simple Fine-Tuning - Google Developers Blog https://developers.googleblog.com/en/introducing-paligemma-2-powerful-vision-language-models-simple-fine-tuning/ Welcome PaliGemma 2 – New vision language models by Google https://huggingface.co/blog/paligemma

                                                                Googleがファインチューニングしやすいビジュアル言語モデル「PaliGemma 2」をリリース
                                                              • LLMの「内部表現」を可視化する:Gemma Scope 2を用いたアニメ・漫画領域での安全性メカニズム検証|CyberAgent AI事業本部公式note

                                                                この記事は、CyberAgent AI事業本部公式note アドベントカレンダー の 24 日目の記事です。 メリークリスマス!株式会社CyberAgent AI事業本部 AIローカライズセンターのAIエンジニア、古川 新です。普段は漫画をAIで理解して海外向けにローカライズするAIを開発しています。 今回は、2025年12月19日に公開されたGemma Scope 2を用いて、AIの解釈性と公平性と安全性についての「ある仮説」を検証してみました。 ⚠️【閲覧にあたっての注意と免責事項】 本記事は、AIモデルの解釈可能性(AI Interpretability)および公平性(Fairness AI)と安全性(Safety AI)の検証を目的とした技術レポートです。 検証の性質上、一部に不適切な概念や性的な表現に関連する用語、およびネット上の俗語が含まれますが、これらはAI内部の挙動を客観的

                                                                  LLMの「内部表現」を可視化する:Gemma Scope 2を用いたアニメ・漫画領域での安全性メカニズム検証|CyberAgent AI事業本部公式note
                                                                • Gemma 4: Byte for byte, the most capable open models

                                                                    Gemma 4: Byte for byte, the most capable open models
                                                                  • Gemma 3 で RAG 機能付きの安全なローカル AI チャット環境を構築する

                                                                    出典:https://developers.googleblog.com/ja/introducing-gemma3/ 近年、大規模言語モデル(以下 LLM)の進化は目覚ましく、その性能向上と共に、クラウドだけでなく一般的な PC やノートパソコンでの実行も現実的になってきました。Mistral AI などがローカル実行可能なモデルを提供する中、2025 年 3 月 12 日に Google が公開した「Gemma 3」は、高性能かつ一般ユーザーの PC でも動作する軽量な LLM として大きな注目を集めています。 Gemma 3 は Gemini 2.0 の技術をベースにした高性能なモデルで、1B、4B、12B、27B の 4 つのサイズが用意され、様々なハードウェア環境に対応できるよう設計されています。実際、Chatbot Arena の Elo スコアでは、より大規模なモデルと比較し

                                                                      Gemma 3 で RAG 機能付きの安全なローカル AI チャット環境を構築する
                                                                    • DGX SparkでGemma 4 31Bをローカル動作させ、OpenClawから使う

                                                                      今回使用したのは31B Dense instructモデルです。 256Kトークンのコンテキストウィンドウを持ちつつ、量子化版であればDGX Sparkのような個人向け環境でも動作します。Arena AIのテキストリーダーボードでは31Bが3位、26B MoEが6位を記録しており、パラメータ数の20倍以上のモデルを上回るスコアを達成しています。 GGUF量子化版の入手 なんと、llama.cppがDay-0 supportを発表しています。今回こいつを使っていきましょう。 動かしたマシン:NVIDIA DGX Spark 今回使用したのはNVIDIA DGX Sparkです。GB10 Grace Blackwell Superchipを搭載し、CPUとGPUが128GBのユニファイドメモリ(LPDDR5x)を共有するアーキテクチャです。モデルの重みを「システムRAM」と「VRAM」に分けて

                                                                        DGX SparkでGemma 4 31Bをローカル動作させ、OpenClawから使う
                                                                      • Googleのオープンモデル Gemma の概要|npaka

                                                                        以下の記事が面白かったので、簡単にまとめました。 ・Gemma: Introducing new state-of-the-art open models 1. Gemma「Gemma」は、「Gemini」と同じ技術を基に構築された、軽量で最先端のオープンモデルです。「Google DeepMind」と「Google」の他のチームによって開発された「Gemma」は、「Gemini」からインスピレーションを受けており、その名前はラテン語で「宝石」を意味するgemmaを反映しています。モデルの重み付けに伴い、開発者のイノベーションをサポートし、コラボレーションを促進し、「Gemma」の責任ある使用をガイドするためのツールもリリースします。 「Gemma」は本日より世界中で利用可能になります。 知っておくべき重要な詳細は次のとおりです。 ・「Gemma 2B」「Gemma 7B」の2つのサイズの

                                                                          Googleのオープンモデル Gemma の概要|npaka
                                                                        • Googleが新オープンAIモデル「Gemma 2」をリリース ~商用可能、提供は27Bと9Bモデル/初代「Gemma」よりも高い推論効率を実現

                                                                            Googleが新オープンAIモデル「Gemma 2」をリリース ~商用可能、提供は27Bと9Bモデル/初代「Gemma」よりも高い推論効率を実現
                                                                          • Android「Gemini/Google アシスタント」切り替え設定

                                                                            AI この記事のポイント Android 版「Gemini」は展開後は「Google アシスタント」とのデジタルアシスタント切り替え設定が新設 いつでも「Google アシスタント」に戻ることが可能 ただし「Gemini」選択中でも「Google マップ」などでは引き続き「Google アシスタント」が動作 先日当サイトにて、手持ちの Android デバイス(Pixel 8 Pro)に Android 版「Gemini」が展開開始されたことを報告させていただきました。 今回の記事は、その続きです。Android 版「Gemini」が展開され「Google アシスタント」から「Gemini」に切り替えると、Android 上で使用するデジタルアシスタントを「Gemini」/「Google アシスタント」で選択できる[Google のデジタル アシスタント]設定が、「Google アシスタン

                                                                              Android「Gemini/Google アシスタント」切り替え設定
                                                                            • GitHub - mattmireles/gemma-tuner-multimodal: Fine-tune Gemma 4 and 3n with audio, images and text on Apple Silicon, using PyTorch and Metal Performance Shaders.

                                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                GitHub - mattmireles/gemma-tuner-multimodal: Fine-tune Gemma 4 and 3n with audio, images and text on Apple Silicon, using PyTorch and Metal Performance Shaders.
                                                                              • Gemma 4がリリース!ローカルLLM勢に嬉しい話

                                                                                🚀 はじめに おぐまです。 Google が 2026年4月2日に Gemma 4 をリリースしました。Apache 2.0 ライセンスで使えるオープンモデルで、ローカルで動かしている人にとってかなり嬉しい内容になっています。「また(新しいモデル)かよ、、」と思う方もいるかもしれませんが、今回は個人開発者・ローカルLLM勢的に注目ポイントが多いので紹介します。 📰 何が発表された? Gemma 4 は Gemini 3 と同じ研究をベースにした、Google の最新オープンモデルファミリーです。ラインナップは次のとおりです。 モデル パラメータ 用途

                                                                                  Gemma 4がリリース!ローカルLLM勢に嬉しい話
                                                                                • Introducing Gemma 3: The most capable model you can run on a single GPU or TPU

                                                                                  Introducing Gemma 3: The most capable model you can run on a single GPU or TPU

                                                                                    Introducing Gemma 3: The most capable model you can run on a single GPU or TPU

                                                                                  新着記事