エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
クソデカオープンモデルではLlama4が最強かもしれない - きしだのHatena
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
クソデカオープンモデルではLlama4が最強かもしれない - きしだのHatena
もう全人類128GBとか512GBとか載ったMacを手にいれてクソデカモデルを試すようになっていますね。 ぼく... もう全人類128GBとか512GBとか載ったMacを手にいれてクソデカモデルを試すようになっていますね。 ぼくもMac Studio 512GBを1日借りてて試したのだけど、Llama4がなんだかんだで強いという印象でした。 クソデカモデルの選択肢としては次のようなものがあります。512GB Macで動かしたときの数字も参考までに。 モデル パラメータ数 アクティブ コンテキスト長 マルチモーダル 量子化 推論速度 LLama4 Maverick 400B 17B 1M 〇 4bit 36tok/sec Llama4 Scout 109B 17B 10M 〇 8bit Qwen3 235B A22B 235B 22B 128K × 8bit 18tok/sec DeepSeek V3 671B 37B 128K × 2bit 17tok/sec で、試すんだけど、Llama4 Maveri