作者error405 (流河=L)
看板AI_Art
標題[閒聊] 1000B巨大開源模型Yuan3.0 Ultra
時間Fri Mar 6 10:29:03 2026
就在AI圈圍繞著今早剛出的GPT5.4討論它聰明又加倍上下文 agent能力直追Claude的時
候
我看到這樣的消息 1000B的超大型開源模型
https://www.youtube.com/watch?v=34jdVUEjM2M
https://zhuanlan.zhihu.com/p/2012994991815943690
夭壽骨 這是吼鯨王還大和號 那個Qwen頂配也才兩三百B吧
然後它們還說原本是1500B左右 把不太重要的500B砍掉得到更加效能
性能測試照例又是頂尖 哪次不頂尖
當然這種量級一般人別想能本地跑了 純粹是不能只有我看到= =
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.36.214.158 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/AI_Art/M.1772764147.A.CA3.html
※ 編輯: error405 (114.36.214.158 臺灣), 03/06/2026 10:31:00
推 ct13579: 蛤 真假 03/06 12:12
→ necrophagist: 之前Kimi k2.5也是1000B 03/06 12:49
→ error405: 聽說有三家 還有一家不知啥 03/06 12:59
推 newyorker54: kim 是1.5t吧!越大越沒有效率 03/06 12:59
推 newyorker54: 參數越大反而去擠壓到上下文容量的資源 03/06 13:02
推 Kroner: 樓下關節痛都吃鞏固力 03/06 13:02推 newyorker54: Kimi K2.5在大約15兆個混合視覺和文本令牌上進行了訓 03/06 13:13
→ newyorker54: 練 03/06 13:13
推 dragon6: 好奇到底塞了多少拉基給它吃 03/06 15:53