ブックマーク / note.com/ainest (1)

  • 【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する|AI Nest

    【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する はじめにこんにちは!株式会社AI Nestです。 「で、GPT-5.5 って結局何パラメータなの?」「Claude Opus 4.6 は Sonnet と比べてどれくらい大きいの?」──研究者であれ実務者であれ、最新フロンティアモデルの規模感を知りたい場面は多いはずです。しかし、主要 LLM ベンダーは長らくパラメータ数を非公開にしてきました。 この問題に対して、これまで広く使われてきたのが Epoch AI などの「推論経済性アプローチ」、つまり API のスループットや料金からハードウェアコストを逆算する方法です。ですが、この手法はバッチング・量子化・サービングスタックなどモデル外要因の影響を受け、2倍以上の不確実性を持つことが知られています。 今回紹介するのは、この

    【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する|AI Nest
    daruism
    daruism 2026/05/05
    スケーリング則はまだまだ有効。知識指紋は面白いな。
  • 1