VRAM96GBが使える環境が増えてきていますね。そんな中、どのLLMを使うのがいいか考えてみます。 候補としては、gpt-oss-120b、GLM-4.6V、Qwen3-Coder-Nextがあります。 で、まあ、安定性のgpt-oss、汎用性のGLM、複雑なコードはQwen3、という感じで使いわけがいいんではないかと。 常用チャットは画像対応のGLM-4.6Vかな。 ※ Llama4 ScoutやQwen3-Nextもありますが、Llama4 Scoutは少し古くて性能が劣るのと、Qwen3-NextはQwen3-Coder-Nextとかぶるので挙げていません。 ※ LongCat-Flash-Liteをダウンロードしたまま忘れていたけど、軽くて良かった。しかしエージェントが動かない。 100B前後のLLM モデル サイズ アクティブ 画像 公開時期 gpt-oss-120b 120B

