エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
MacBook Air 32GBでローカルLLMによるコード生成を評価してみた(2025/04 最終稿:Qwen3-30B-A3Bのlmxが最強) - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
MacBook Air 32GBでローカルLLMによるコード生成を評価してみた(2025/04 最終稿:Qwen3-30B-A3Bのlmxが最強) - Qiita
はじめに 最近話題のローカルLLM。オンラインでコード生成するのではなく、自分のマシンだけでAIにコー... はじめに 最近話題のローカルLLM。オンラインでコード生成するのではなく、自分のマシンだけでAIにコードを書かせる試みに挑戦してみました。今回使ったのは、MacBook Air(M4・32GBメモリ)とroo codeです。「無料でローカルLLMを使ってプログラミングできたら最高!」というモチベーションで、さまざまなモデルを試してみました。 何度かメジャーなモデルをトライして、現状(2025/04時点)で最も使えるのは「Qwen3-30B-A3Bのlmx」が最強との結論を得ました。 結論:ローカルLLMでコード生成するには? Qwen3-30B-A3Bのlmx(4q)がスピード品質ともに最強 → 3Bのみアクティブになるため早くてメモリも有利 MoE以外では14Bクラスのモデルが必要 → メモリ32GBでは厳しい 8bit量子化が最適解 → モデルサイズと性能のバランスが取れる M4で動か

