エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント5件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する|AI Nest
【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する... 【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する はじめにこんにちは!株式会社AI Nestです。 「で、GPT-5.5 って結局何パラメータなの?」「Claude Opus 4.6 は Sonnet と比べてどれくらい大きいの?」──研究者であれ実務者であれ、最新フロンティアモデルの規模感を知りたい場面は多いはずです。しかし、主要 LLM ベンダーは長らくパラメータ数を非公開にしてきました。 この問題に対して、これまで広く使われてきたのが Epoch AI などの「推論経済性アプローチ」、つまり API のスループットや料金からハードウェアコストを逆算する方法です。ですが、この手法はバッチング・量子化・サービングスタックなどモデル外要因の影響を受け、2倍以上の不確実性を持つことが知られています。 今回紹介するのは、この







2026/05/05 リンク