記事へのコメント48

    • 注目コメント
    • 新着コメント
    ookitasaburou
    “1.7Bなど小さいモデルも既存のモデルより使えるものになっていて、ローカルLLMの世界を変えそう。”

    その他
    infinite-regress
    infinite-regress サイズダウンするにつれゲームのクオリティがしっかり下がっていくのがおもしろすぎる

    2025/05/01 リンク

    その他
    sek_165
    Qwen3-VLも期待して待ってます。

    その他
    delimiter
    AI絡みの方々はここ数年で世界が5回ぐらいひっくり返ってそう

    その他
    venjamine
    “Pro”

    その他
    ka-ka_xyz
    電書化したデータを扱いたいので外部に投げずにローカルLLMで何とかしたいんだよな。今のとこうまくいってない( https://bsky.app/profile/ka-ka-xyz.bsky.social/post/3levswofld22w )けど後で試す。

    その他
    agricola
    8Bの4bit量子化モデルならサイズは4GB。そりゃ8GBあれば余裕だわな?

    その他
    atsushieno
    Qwen3はなぜかJanで14Bモデルが列挙されないんだよな

    その他
    kenjou
    ローカルで自分で管理するよりも、向こうが勝手に性能アップしていってくれるサブスクに課金した方が全体としてはコスパがいいような気はする。メモリが多いMacは高いし。

    その他
    hunglysheep1
    サヴァン症候群でも凄い能力を持った人間もいるし、サイズより最適化のレベルによるのかもなぁ

    その他
    cloverstudioceo
    エッチな会話はしてくれませんでした

    その他
    harumomo2006
    ちょっと楽しみ

    その他
    yarumato
    “コーディング用途だと14Bや32Bのほうがいいかも。14Bから1.7Bまで4bit量子化モデルをMac+LM Studioで試していきます。8Bモデルでも8GBメモリで結構動いてくれる。確実さを求めると8Bや14Bがほしい。”

    その他
    kotesaki
    例えばプログラミングとかに限定すると人間の知識量ってそれこそ1.3BモのLLM程度と言えるのかもね(w “1.7Bは?それっぽいこと返してきて恐ろしい。つまり人類の知識って1.3GBにおさまるんか?”

    その他
    lainof
    lainof ↓既知のゲームを作らせるのと、そうじゃないものを作らせるのでは難易度が違うので、モデル自体の性能が向上しているかどうかの判断には不適当ってことをトップコメは言いたいのでは?

    2025/04/30 リンク

    その他
    hatebu_admin
    やはりブクマカ的にはブクマする仕事と密着した用法、カラースターがじゃぶじゃぶ取れるブコメを書けるかどうかが気になるってやつやろ

    その他
    Eiichiro
    ローカルLLMで上手く説明できるってことは、サーバーにLLM建てて、ベース資料として、コードベース与えてあげれば、いつでも仕様に答えてくれるチャットボットくんができる可能性でてくる。こっちの未来はありそう。

    その他
    misshiki
    “Qwen3が出ていて、14Bを中心にいろいろ試したのだけど、かなり使い物になって、日常的な用途ではこれでいいのでは、という感じもします。”

    その他
    tg30yen
    >14Bでかなり使えます。単発のコード生成はかなりいける。単発の質問ならGPT-4oの代わりに十分なりそうです。

    その他
    rgfx
    rgfx ちゃんと自分の手を動かして試した記事にブクマが集まってて良い

    2025/04/30 リンク

    その他
    himanahitodesukun
    himanahitodesukun 別にテトリスやブロック崩しを作ることがこの記事の趣旨じゃなかろう...

    2025/04/30 リンク

    その他
    rax_2
    フカシだろうと思って眉唾で聞いていたが、もうその精度まで来たのか。家のローカルで動くまであと一歩…と思いながら、まだ、課金したほうが早いなとも思う。

    その他
    nobububu
    nobububu ブロック崩し作って、で動くものが出来上がるほどハイコンテキストだとしたら、もうブロック崩しの仕様が知識にあるからなのでは。

    2025/04/30 リンク

    その他
    T-norf
    T-norf 米国は自由貿易の未開国になり、LLM民主化の波は中国から来るのね。少ないデータセットで優秀かつ低コストなファインチューニング手法が出てきたら、ここらへんの価値は上がるだろうけど、情報追っかけてる時間なし

    2025/04/30 リンク

    その他
    wktk_msum
    うーむMacで試すか

    その他
    KoshianX
    おお、そんなにちゃんと動くものなのか。ようやくコーディングエージェントも気軽に使えるかなあ

    その他
    shinobue679fbea
    512GBMac studio、ひょっとしていらない??

    その他
    PYU224
    PYU224 これは凄い。私も試してみたい。/14Bモデルを試してみたけどNSFWはダメで無難な回答しか来ない。制限なしのモデル登場を求む。

    2025/04/30 リンク

    その他
    Phenomenon
    Phenomenon おおーMacで動かしてみよ。もうちょっとで使い物になりそう。/トップブコメのひと つ ベンチマークテスト

    2025/04/30 リンク

    その他
    toaruR
    14Bは9GBか(・ω・)

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Qwen3はローカルLLMの世界を変えたかも - きしだのHatena

    Qwen3が出ていて、14Bを中心にいろいろ試したのだけど、かなり使い物になって、日常的な用途ではこれで...

    ブックマークしたユーザー

    • tu_no_tu2025/05/13 tu_no_tu
    • medicalcloud2025/05/06 medicalcloud
    • katoukaitou2025/05/04 katoukaitou
    • aont2025/05/04 aont
    • lugecy2025/05/04 lugecy
    • kouta-kouta2025/05/03 kouta-kouta
    • wushi2025/05/01 wushi
    • ussiik12025/05/01 ussiik1
    • tkos-rg2025/05/01 tkos-rg
    • ookitasaburou2025/05/01 ookitasaburou
    • mstk_knife2025/05/01 mstk_knife
    • okada-kazumi2025/05/01 okada-kazumi
    • dak22025/05/01 dak2
    • unfini2025/05/01 unfini
    • naggg2025/05/01 naggg
    • red_kawa53732025/05/01 red_kawa5373
    • horiri0692025/05/01 horiri069
    • mojakkun2025/05/01 mojakkun
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む