看板 AI_Art
就在AI圈圍繞著今早剛出的GPT5.4討論它聰明又加倍上下文 agent能力直追Claude的時 候 我看到這樣的消息 1000B的超大型開源模型 https://www.youtube.com/watch?v=34jdVUEjM2M
https://zhuanlan.zhihu.com/p/2012994991815943690 夭壽骨 這是吼鯨王還大和號 那個Qwen頂配也才兩三百B吧 然後它們還說原本是1500B左右 把不太重要的500B砍掉得到更加效能 性能測試照例又是頂尖 哪次不頂尖 當然這種量級一般人別想能本地跑了 純粹是不能只有我看到= = -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.36.214.158 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/AI_Art/M.1772764147.A.CA3.html ※ 編輯: error405 (114.36.214.158 臺灣), 03/06/2026 10:31:00
ct13579: 蛤 真假 03/06 12:12
necrophagist: 之前Kimi k2.5也是1000B 03/06 12:49
error405: 聽說有三家 還有一家不知啥 03/06 12:59
newyorker54: kim 是1.5t吧!越大越沒有效率 03/06 12:59
newyorker54: 參數越大反而去擠壓到上下文容量的資源 03/06 13:02
Kroner: 樓下關節痛都吃鞏固力 03/06 13:02
newyorker54: Kimi K2.5在大約15兆個混合視覺和文本令牌上進行了訓 03/06 13:13
newyorker54: 練 03/06 13:13
dragon6: 好奇到底塞了多少拉基給它吃 03/06 15:53