記事へのコメント5

    • 注目コメント
    • 新着コメント
    kei_1010
    GPT5.5に言わせると「LLMの事実記憶容量から非公開モデルの規模を推定する研究が出たが、初期実装・データ品質・スコア処理に重大な不安があり、具体的なT単位の数字はまだ信用できない」との事。

    その他
    mole-studio
    直感的にそうと思うけど実際にそれを示して見せたのは見事

    その他
    rawwell
    “F 個の事実を格納するには最低でも F/(bits per parameter) のパラメータが必要、という強い下界が成立します。 これが「Incompressible Knowledge Probe(IKP)」というアプローチの理論的バックボーン”

    その他
    daruism
    daruism スケーリング則はまだまだ有効。知識指紋は面白いな。

    2026/05/05 リンク

    その他
    nguyen-oi
    9.7兆とかもう数字がデカすぎて実感がわかねーよ。スケーリング則は不滅か

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する|AI Nest

    【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する...

    ブックマークしたユーザー

    • tasukuchan2026/05/06 tasukuchan
    • amring2026/05/06 amring
    • aru472026/05/06 aru47
    • kei_10102026/05/06 kei_1010
    • kusaret2026/05/06 kusaret
    • naggg2026/05/05 naggg
    • mole-studio2026/05/05 mole-studio
    • tana0052026/05/05 tana005
    • hamatu2026/05/05 hamatu
    • applesin2026/05/05 applesin
    • obaratch2026/05/05 obaratch
    • yowa2026/05/05 yowa
    • heguro2026/05/05 heguro
    • mathtonica2026/05/05 mathtonica
    • BuchuntaGo2026/05/05 BuchuntaGo
    • rawwell2026/05/05 rawwell
    • test03202026/05/05 test0320
    • NEXTAltair2026/05/05 NEXTAltair
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む