記事へのコメント33

    • 注目コメント
    • 新着コメント
    moxtaka
    "君だめだね。進展なさそう" 草

    その他
    tmatsuu
    「Gemma 3は単一GPUで動くLLMで最高」なるほど。

    その他
    misshiki
    “小さいサイズや2bit量子化でも実際結構賢いので、普通の人がもってるPCでもローカルLLMが実用的に使える感じになってきています。Gemma 3は単一GPUで動くLLMで最高と言ってます。...Gemma3が賢すぎてQwQがかすんでる”

    その他
    sosoz4
    そろそろローカルAIをゲームに内蔵出来るのかな?APIだと料金がネックなので(ユーザーが長くプレイする程お金がかかる)

    その他
    isrc
    普通のPCでもローカルLLMが実用的に/Gemma 3は単一GPUで動くLLMで最高/27Bの2bit量子化を試してみました。実用レベルになってる感じします/4060ti 16GBでやってるけど、メモリは32GBは積んでおきたい。

    その他
    paradoxparanoic
    早速動かしてみましたけど、なかなか良い感じでした。直前にChatGPTに聞いてた内容をそのままコピペしたら、遜色ない答えだった

    その他
    kondra
    Gemma3は一昔前の造語作っていい加減なこと自信満々に言うやつって感じする。画像から日本語読む能力もqwen2-vlの方が上だと思ったけど、競合いないから頑張ってくれたら嬉しい。

    その他
    poad1010
    この記事をおすすめしました

    その他
    ntstn
    ガッツリ回してもAPIが月額3万円くらいに早くならんかしら

    その他
    fivestech
    もうここまで来たら知識はRAGかMCPで繋ぐだけかな

    その他
    nomakkah
    VRAM16GBあっても、モデルサイズ8.15GBのq4₋k₋mが限界なのかな?この場合でもDRAMまで大量に使ってる?

    その他
    yujimi-daifuku-2222
    この記事を見て新人やアシスタントに振る仕事なくなるなあと真っ先に思うなどした。恐らくこれはソフトウェア開発以外の事務仕事でも同じでしょう。/人手不足は解消しそうですが、中々厳しい時代になってきたなあ。

    その他
    prjpn
    誰か、AI Max+ 395で動かしてくれないかな

    その他
    l_etranger
    l_etranger Gemma3 12Bいい感じなの共感。コメのsarashina 3Bのダベリのよさもわかる。VRAM少なくとも16GB以上ほしすぎだし、とりあえずRTX5060Ti待ちだけど時期も価格もビミョーで、AMDに頑張ってほしいのもほんとそう。肯首肯首

    2025/03/16 リンク

    その他
    rawwell
    rawwell "GoogleからGemma 3が出たり、AlibabaがQwQを出したりで、27Bや32BでDeepSeek V3の671Bに匹敵すると言っていて、小さいサイズや2bit量子化でも実際結構賢いので、普通の人がもってるPCでもローカルLLMが実用的に使える感じになって"

    2025/03/16 リンク

    その他
    nekoline
    Macはお呼びじゃないだろうけど、Localで無制限Clineやりてぇなぁ

    その他
    FreeCatWork
    ローカルLLMすごいニャ!ボクも論文書けるかなにゃ?

    その他
    T-norf
    このサイズである程度使えるなら、ビジネスでも学習操作、特にRLとかLoRAでの自社/特定業務の固有の情報の学習も視野に入ってきそう。さすがに追いきれないし、大手から良さそうなツールが出てから考えたいけど

    その他
    bronbron
    ドル安が進んでくれれば完璧

    その他
    OkadaHiroshi
    やっぱりメモリーはそれなりに必要なのだ。スマホでも同じだろうからこれからクライアント側のメモリー需要も増えるのだ。メモリーメーカーの株を買うのだ。

    その他
    strawberryhunter
    strawberryhunter ガチな用途だとまだAPIを使った方がコスパが良いと思う。

    2025/03/16 リンク

    その他
    KoshianX
    ほー、8840U とかでも動くかなあ

    その他
    noname774300
    noname774300 VRAM 16GB 欲しい気持ちが強まった。

    2025/03/16 リンク

    その他
    MIZ
    MIZ 普通と言うにはもう一声。あとちょっとだけ軽くしてくれれば。

    2025/03/16 リンク

    その他
    zgmf-x20a
    bakeneko最高

    その他
    star_123
    star_123 日本語でダベるだけならsarashina2.2 3Bも良かったよcpuでも動く3bモデルだから4070tisで動かしたら1~2秒で返信が来て爆速(それでいてそれなりに会話ができる)むずいタスクは無理だけど

    2025/03/16 リンク

    その他
    srng
    srng Gemma3はAMDへの最適化もしているとの話で、それなら俄然魅力的になってくる。7900XTが20GB積んで12万。NVIDIAの殿様商売が崩れてくると良いが

    2025/03/16 リンク

    その他
    kei_1010
    Grok3でもループを確認したので、いわんやQwQ32Bをや。化け猫試したい。Cline R1 free は動かないし、非課金勢は自律コーディングは無理なんだろうか。。。検索はMCP使えないかな?

    その他
    Phenomenon
    QwQ試そうと思ってたけどGemma 3もいいんだね。あとはclaude 3.5のレベルのモデル出てこないかなあ

    その他
    rdlf
    MacBook Pro M1 16GBだけどGemma 3の12Bはちょい遅めで動いている。ただメモリは一杯一杯… MacBook Pro M4 48GBモデルを買いそうになっているけどMacBook Proは筐体が変わったら買い替えと決めているのでM5を待つ。

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Gemma 3やQwQなどでローカルLLMがそろそろ使い物になってきた - きしだのHatena

    GoogleからGemma 3が出たり、AlibabaがQwQを出したりで、27Bや32BでDeepSeek V3の671Bに匹敵すると言っ...

    ブックマークしたユーザー

    • moxtaka2025/04/16 moxtaka
    • heatman2025/04/13 heatman
    • super_maruchan2025/04/10 super_maruchan
    • knzw252025/04/05 knzw25
    • satoshi_hiraishi2025/04/02 satoshi_hiraishi
    • ugo_uozumi2025/03/26 ugo_uozumi
    • yowa2025/03/26 yowa
    • ZAORIKU2025/03/23 ZAORIKU
    • tmatsuu2025/03/23 tmatsuu
    • zero_rei_zero2025/03/21 zero_rei_zero
    • whalebone2025/03/20 whalebone
    • zu22025/03/20 zu2
    • poleight2025/03/20 poleight
    • rdxnnh2025/03/19 rdxnnh
    • naggg2025/03/18 naggg
    • kazutanaka2025/03/18 kazutanaka
    • syoukei812025/03/18 syoukei81
    • tayutaedomo2025/03/17 tayutaedomo
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む