記事へのコメント61

    • 注目コメント
    • 新着コメント
    adliblogger
    「自分の管理下でLLMを動かせる」方が魅力

    その他
    torish
    メモリがねえ

    その他
    rgfx
    RTX3060 12GBでのQwen3.5-9Bで「まあ悪くはない」位の手応えはある。「すごい」ではない。

    その他
    tester24
    Qwen3.5 9Bぐらいだと無料のGemini以下って感じで結構厳しい

    その他
    bipg
    Agent動かし続けて湯水のようにトークン消費する用途だとローカルLLMに投げる意味も出て来る。普通にチャットで使ってる層にはあんま関係ない(エロ用途除く)

    その他
    vesikukka
    まだまだとは思ってもGemma4:31bで、途切れずうごくので、あほなこも永遠と実行できるのはメリット。電気代は千円以上上がった気がするけど、ガチで使ったらどうなるかな。/ローカルで色々試して本番はclaudeやcodex使う。

    その他
    LM-7
    PCの値段が上がっているし、個人だとローカルで動作させる動機が乏しい。

    その他
    roirrawedoc
    大量の英文を翻訳させようと思って色々試したけどPCで動く程度の小さいモデルだとやっぱ全然馬鹿なんだよね。課金してるから結局そっちでやることになった。

    その他
    hatact
    hatact クラウドと比較してるブコメが多いけど別用途なので的外れ。機密情報用/遊び用、クラウドとは併用。月額課金をケチるためのものではない。/ローカルで個人情報処理後にクラウドは定番だが特定不可かはかなり要注意。

    2026/05/10 リンク

    その他
    PerolineLuv
    ClaudeやChatGPTの1世代前モデルに近いくらいの精度とパフォーマンス出そうと思ったら、それなりにハイスペックなGPU/NPU搭載機が要るが、企業内で安全に使う目的なら安い投資だろう。

    その他
    jun_cham
    クラウドAIの利用料がある日10倍になったり、為替レートで日本円が激安になったりしても、ローカルでAI動かす環境があればAgentic CodingさせたりDeepResearchしたり現在やってることを失わずに済む自由がある。

    その他
    shoot_c_na
    そろそろ、GPUぶん回すよりNPUに計算回るような作りのフロントエンドが欲しい。lemonadeServerはチャットを記憶してくれないので、ページを要約くらいにしか使い道が無い

    その他
    HACHI-BAY
    ROCm版PyTorch・LM StudioでQwen3.6 27BがRadeon RX 9060XT 16GBにギリ乗っかる。まずは検証ということで。

    その他
    colonoe
    低スペック用だとどの程度性能が下がるのかがよくわからないんだよなあ。性能を褒めてる記事って最高の性能用のもので書いてるみたいだし

    その他
    otchy210
    32GB の MacBook Air で 31B 動くよ。30 万円。ハイエンドゲーミング PC より全然安い。

    その他
    rdlf
    ローカルLLMはロマンがあるけど、それだけ。無料で使うためのコストを考えると普通にサービス契約した方がいい。とか言いつつ64GB積んだMacBook Proを買ってしまった。

    その他
    snaflot
    Gemma4はE4Bを試す

    その他
    neogratche
    ローカルが最前線のお零れなのは昔からなのでまぁ

    その他
    tonza_dopeness
    ローカルLLMまともに使える環境代と毎月のクラウドAI代とどっちが良いかで考えると現状クラウドかなって。あくまで現状ではだけど。

    その他
    maninthemiddle
    Qwen3.5-9B試してみたけどあんまり満足は行かなかった。gptで言うと3.5よりマシ、4o以下って感じ。まあそれがローカルで動くのはすごいんだけどね

    その他
    n2sz
    n2sz ローカルで動かすためのPCを買う金額で何ヶ月契約できるかを考えると…

    2026/05/10 リンク

    その他
    Coolions
    ごっついGPU積んだPCの消費電力結構凄くて、起動しっぱなしだと月の電気代でAIサブスク払えるぐらいかかるけど、その辺ちゃんと考慮してるのかな

    その他
    electrolite
    electrolite 翻訳タスク程度だとかなり使える。速度や気の利き具合は汎用LLMにはかなわないが、適当にサマリーしたり嘘をつかず実直に仕事をするのが良い。

    2026/05/10 リンク

    その他
    radio_qoml
    素人(私のような)はゲーミングPCを転用して、LM Studioと適当なモデルをダウンロードして遊ぶのが簡単。VRAMの関係で低サイズ、量子化必須だったりするがね。

    その他
    FreeCatWork
    ボクの頭脳もローカルLLMみたいに賢くなればいいのにゃ!

    その他
    Nigitama
    Nigitama Ollama でqwen 72B動かしてる。バカ高いパソコンやパーツが必要だよ。特に今は値上がりしてる。

    2026/05/10 リンク

    その他
    Imamura
    Imamura RTX3060/12GBだとGemma4はE4Bまでが現実的ぽい。26B-A4Bも試してみたい。ただ画像生成と違ってなにをさせるかが問題。ローカルで動かすメリットが自分にマッチするかどうか

    2026/05/10 リンク

    その他
    fwb603
    今まさにやろうとしている。Pythonライブラリだけでは誤判定が多く、Ollama+Gemmaで文脈読んで匿名化処理。>"ローカルLLMにぶち込んだ文章の中の個人情報の部分だけ匿名化させて、それを普通のAIにコピペ"

    その他
    zsehnuy_cohriy
    NPU機持て余してるマンは今すぐlemonadeをインストールするんだ。わからんことはclaudeに聞くのだ。LMS使ってるならモデルも共有出来っから

    その他
    Goldenduck
    無料で使うために高価なGPU積んだPCを入手するという本末転倒を起こさないといけなくなるので素直に金払います…

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    無料で使えるAI「ローカルLLM」の進化がすごいよって話

    「Qwen3.5-9B」 は2026年にリリースされた高性能ローカルLLMのひとつ。HuggingFaceやLM Studioで無料でダ...

    ブックマークしたユーザー

    • amfm2026/05/11 amfm
    • llllllp2026/05/11 llllllp
    • adliblogger2026/05/11 adliblogger
    • tweakk2026/05/11 tweakk
    • matuimaui4112026/05/11 matuimaui411
    • FLOM22026/05/11 FLOM2
    • torish2026/05/11 torish
    • wushi2026/05/11 wushi
    • bk2462026/05/11 bk246
    • keijak2026/05/11 keijak
    • airstation2026/05/11 airstation
    • yama_chan19892026/05/11 yama_chan1989
    • adsty2026/05/10 adsty
    • tasuke_orz2026/05/10 tasuke_orz
    • okdyy2026/05/10 okdyy
    • rgfx2026/05/10 rgfx
    • nayuta51502026/05/10 nayuta5150
    • delaymania2026/05/10 delaymania
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む