【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する はじめにこんにちは!株式会社AI Nestです。 「で、GPT-5.5 って結局何パラメータなの?」「Claude Opus 4.6 は Sonnet と比べてどれくらい大きいの?」──研究者であれ実務者であれ、最新フロンティアモデルの規模感を知りたい場面は多いはずです。しかし、主要 LLM ベンダーは長らくパラメータ数を非公開にしてきました。 この問題に対して、これまで広く使われてきたのが Epoch AI などの「推論経済性アプローチ」、つまり API のスループットや料金からハードウェアコストを逆算する方法です。ですが、この手法はバッチング・量子化・サービングスタックなどモデル外要因の影響を受け、2倍以上の不確実性を持つことが知られています。 今回紹介するのは、この

