推 ben108472 : 他有些話說的沒有錯,LLM確實無法達到AGI,現在的A 12/22 06:12
→ ben108472 : I過於耗電,未來肯定還有新一波科技革命來解決這些 12/22 06:12
→ ben108472 : 事情 12/22 06:12
推 davie11333 : 懂惹 貝瑞=老蘇=對一半老師 12/22 06:23
推 partsex : LLM就只是歸納法 海量資料 建立模型找出規律 預測 12/22 06:29
→ partsex : 未來 12/22 06:29
→ partsex : 12/22 06:29
→ partsex : 人類的大腦除了歸納法 還有演繹法 12/22 06:29
→ partsex : 演繹法可以讓人類的大腦在學習事務時 大幅降低能耗 12/22 06:29
→ partsex : 比ai還節能 12/22 06:29
→ partsex : 例如你被火燙到一次 你就知道各種場景的火不能靠近 12/22 06:29
→ partsex : 亂碰 12/22 06:29
→ partsex : 可是現階段的ai 12/22 06:29
→ partsex : 你必須讓他學習 蠟燭的火 壁爐的火 露營的火 全天 12/22 06:29
→ partsex : 下各種場景的火你都要讓他看過一次 訓練一次 12/22 06:29
→ partsex : 她才知道所有的火源都不能靠近 12/22 06:29
→ partsex : 這就是ai訓練比人腦還耗費能量的原因之一 12/22 06:29
→ partsex : 類神經網路這種演算法 試圖模擬生物的腦神經 但只 12/22 06:31
→ partsex : 模擬了一部分 12/22 06:31
→ partsex : 離造物主的智慧還差太遠 12/22 06:32
→ partsex : 大腦遠沒有這麼簡單 12/22 06:32
推 partsex : 所以18歲的人類學開車就只需要一個禮拜 12/22 06:34
→ partsex : ai卻要海量資料訓練好幾百億里程 12/22 06:34
→ partsex : 才會開車 12/22 06:34
推 partsex : 大腦從遠古生物演化到現在 越來越精明 12/22 06:41
→ partsex : 根本是違反熱力學第二定律 12/22 06:41
→ partsex : 代表人腦的出現根本是外力介入 12/22 06:41
→ partsex : 不是自然產生 12/22 06:41
→ partsex : 我們是被創造的 上帝創造了我們 12/22 06:41
→ partsex : 精密* 12/22 06:41
→ partsex : 如果我們能創造出AGI 豈不是比上帝還強大了 12/22 06:42
→ partsex : 那到時候人類 還會看得起上帝嗎 12/22 06:43
→ partsex : 上帝創造人類 12/22 06:43
→ partsex : 而人類創造一個比上帝更聰明的大腦 12/22 06:43
→ partsex : 那上帝還需要給我們尊重嗎 12/22 06:43
→ partsex : 那我們還需要給上帝尊重嗎 lol 12/22 06:45
→ turndown4wat: 大嘎空 12/22 06:52
推 b160160 : 推 12/22 07:12
推 fakeMaskRide: 但現在還不知道agi 什麼時候或是有沒有可能會被做出 12/22 07:16
→ fakeMaskRide: 來吧,如果現在的ai架構可以發展到解決或改進現在人 12/22 07:16
→ fakeMaskRide: 類世界的大部分問題,那還是繼續看多吧? 12/22 07:16
推 onekoni : AI:尊重上帝 鄙視人類 12/22 07:20
推 Gipmydanger : 車子不能上樓梯,所以人比車強。真棒 12/22 07:28
噓 f0936649477 : 所有美國菁英都認為中國與美國在AI競賽非常接近 12/22 07:30
→ f0936649477 : 我看你是比他們都懂喔 12/22 07:30
噓 patvessel : 能夠代表所有美國精英的人出現了 大家給點尊重 12/22 07:48
→ EXIONG : 就是拿硬體可以更好 也要發展軟體之類的厚問吧 12/22 07:51
→ katzlee : ASIC我幹嗎跟輝達買? 12/22 08:00
→ ev331 : 好 12/22 08:08
噓 lovemost : 胡扯 12/22 08:09
噓 devirnt : 耗電量那裡怎麼跟實際使用的完全相反? 12/22 08:13
噓 wj115 : 演化越來越精明哪裡違反熱力學 到底說啥鬼 你以為 12/22 08:13
→ wj115 : 演化是多者恆多大者恆大喔 12/22 08:13
→ wj115 : 無情的篩選機器 破腦就是會死 聰明就是會活 哪裡違 12/22 08:14
→ wj115 : 反定律了 12/22 08:14
→ breathair : 並不是,NVDA把自己變成ASIC的那一刻開始就輸了,通 12/22 08:15
→ breathair : 用再也不通用,他自己又不像谷歌軟硬垂直整合。他現 12/22 08:15
→ breathair : 在把GPU加上Tensor core 就註定會差TPU越來越遠 12/22 08:15
推 deep236 : Nvidia設計的ASIC有競爭力這點,我是打問號,毫不 12/22 08:15
→ deep236 : 疑問的是GPU設計上,N家打競爭力是其他公司遠遠比 12/22 08:16
→ deep236 : 不上的 12/22 08:16
→ breathair : N家的CUDA在初期路徑依賴是優點,一旦被TPU平手,接 12/22 08:17
→ breathair : 下來就是缺點了。他必須背著CUDA跟純Tensor 比賽 12/22 08:17
→ ksjr : 優點是算法變了tpu就幾乎死光了QQ 12/22 08:22
推 as6633208 : 其實那些七巨頭CEO的邏輯滿第一性原理的吧,LLM不一 12/22 08:28
→ as6633208 : 定是聖杯,但也夠現在加速尋找新的聖杯算法了。人類 12/22 08:28
→ as6633208 : 科技研發正在加速,意思新算法可能在近幾年加速出來 12/22 08:28
→ as6633208 : 。然後就是關鍵,新算法假設真的誕生,那個新算法就 12/22 08:28
→ as6633208 : 可以用小於地球文明的算力,來計算出改變地球文明的 12/22 08:28
→ as6633208 : 結果嗎?你在尋找現實世界的bug嗎?這是偷懶和不切 12/22 08:28
→ as6633208 : 實際,新的算法肯定是更適應scaling law的算法,如 12/22 08:29
→ as6633208 : 果是這邏輯,那麼現在的算力中心就等於是多重押寶, 12/22 08:29
→ as6633208 : 如果現在LLM就是聖杯,nice,如果不是新算法誕生一 12/22 08:29
→ as6633208 : 樣瞬間贏人,nice,然後既然未來的需求場景是agi as 12/22 08:29
→ as6633208 : i,是星際移民,這些算力需求就肯定要至少要等同於 12/22 08:29
→ as6633208 : 地球文明,才有辦法算出改變地球文明的結果嘛。然後 12/22 08:29
→ as6633208 : 勒量子電腦NV google也在守著,第三重押寶 12/22 08:29
推 breathair : 算法已經註定無法大幅改變了,這邏輯要是成立,TPU 12/22 08:29
→ breathair : 現在還在追GPU,GPU也不會貿然加上Tensor Core ,當 12/22 08:29
→ breathair : GPU一半變成Tensor core ,等於NV也在壓寶目前的演 12/22 08:29
→ breathair : 算法,演算法也就從此只能小幅更動,TPU變廢鐵只是 12/22 08:29
→ breathair : 假議題。任何大幅度更動的演算法在TPU上不能跑,在G 12/22 08:29
→ breathair : PU上跑的效能也是極差,這類變形算法反而谷歌較為容 12/22 08:29
→ breathair : 易實現,因為他軟硬結合,而GPU被CUDA綁住,迭代速 12/22 08:29
→ breathair : 度差不止TPUㄧ倍 12/22 08:29
→ as6633208 : 所以你覺得人類有可能找出宇宙的bug,開始變魔法, 12/22 08:31
→ as6633208 : 用小於地球文明計算的資源,來計算出改變地球文明的 12/22 08:31
→ as6633208 : 結果? 12/22 08:31
推 breathair : 跟bug無關,運算法不變:TPU成本效能屌打,運算法大 12/22 08:34
→ breathair : 幅變動:TPU可以快速迭代,軟硬配合馬上適配,GPU被 12/22 08:34
→ breathair : CUDA綁住,向前兼容,只能慢慢改 12/22 08:34
→ breathair : 這兩個狀況在模型表現追上來之後,後面的加速度是GP 12/22 08:34
→ breathair : U通用型天生的劣勢 12/22 08:34
→ breathair : 若只是小幅變動的演算法,谷歌完全可以改編譯器來配 12/22 08:36
→ breathair : 合,完全不受影響。 12/22 08:36
→ breathair : 三條路徑邏輯上都是ASIC贏 12/22 08:36
推 as6633208 : 現在講的都是講LLM可能不是聖杯捏?你現在就押寶TPU 12/22 08:39
→ as6633208 : for LLM,改變的話TPU可能更慘捏,你知道為啥谷歌 12/22 08:39
→ as6633208 : 還是買GPU嗎?然後你放心當新聖杯真的確定出來nv絕 12/22 08:39
→ as6633208 : 對開始開發asic 12/22 08:39
→ as6633208 : 重點就是你根本就不知道現在的算法是不是聖杯,就開 12/22 08:40
→ as6633208 : 始為了現在不是聖杯的算法押注asic,這個可能是更嚴 12/22 08:40
→ as6633208 : 重的戰略錯誤捏?你懂谷歌為啥現在還是買gpu嗎 12/22 08:40
→ opticalman : 美國全押所有能發展AI的科技又不只是押輝達...還有 12/22 08:41
→ opticalman : AMD..量子..ASIC,笑貝瑞只押空輝達 12/22 08:41
推 breathair : 谷歌的GPU反正不是訓練自己的模型用 12/22 08:47
→ breathair : 給客戶用很正常 12/22 08:47
→ breathair : 演算法大幅改變的情形,CUDA core不能丟, Tensor co 12/22 08:47
→ breathair : re 也不能全丟,迭代幅度跟速度註定很慢。TPU不同, 12/22 08:47
→ breathair : 他追上transformer 架構也就兩年。他已經先讓CUDA十 12/22 08:47
→ breathair : 年,在用兩年追上來。 12/22 08:47
→ breathair : 一旦追上,後面就可以想像了,一個軟硬體可以隨時進 12/22 08:47
→ breathair : 化,而通用型只能演化 12/22 08:47
推 opticalman : 川普 鬆綁 AI監管,AI的領域太廣啦,很難單一技術 12/22 08:47
→ opticalman : 一統天下,軟硬體全力衝刺,不會只押輝達,誰適合A 12/22 08:47
→ opticalman : SIC,GPU,TPUNPU各自去發展啦 12/22 08:47
→ breathair : GPU只能優化(typo) 12/22 08:48
推 as6633208 : 你要確定谷歌的研發有超越欸,你知道現在tpu v7算力 12/22 08:48
→ as6633208 : 還超越不了gb200嗎== 12/22 08:48
→ breathair : 單卡比算力不是重點,重點在每個token的成本TPU屌打 12/22 08:50
推 utn875 : token耗電量, Google 是openAI 10% 12/22 08:56
推 opticalman : 貝瑞故意隱藏不說,不論GPU或TPU都輸中國啦,中國 12/22 08:59
→ opticalman : 最大贏家,大賣空大賺啦 12/22 08:59
推 as6633208 : 你知道更慘的是什麼嗎,tpu v7算不贏gb200就算了, 12/22 09:01
→ as6633208 : 這個谷歌的asic還是針對可能不是聖杯算法的LLM來特 12/22 09:01
→ as6633208 : 化的,而nv的gb200很可能新的聖杯算法完全吃得到, 12/22 09:01
→ as6633208 : 要是新的聖杯算法不是LLM你的for llm的asic該何去何 12/22 09:01
→ as6633208 : 從捏? 12/22 09:01
推 robin101246 : 同意 12/22 09:01
推 yomo2 : 貝瑞現在很像有點影響力的空方怕被尬爆瘋狂放小作 12/22 09:03
→ yomo2 : 文 12/22 09:03
推 Shepherd1987: 不需要到AGI, 只需要取代部分猴子 12/22 09:04
推 breathair : 演算法的發展是從發散到收斂的過程,你的邏輯要是成 12/22 09:06
→ breathair : 立,ASIC只有在演算法穩態的時候,模型表現才有機會 12/22 09:06
→ breathair : 趕上GPU,而現在已經趕上了。趕上之後呢?有沒有想 12/22 09:06
→ breathair : 過? 12/22 09:06
→ breathair : 現在突然有一個變種演算法,TPU改編譯器也不能適配 12/22 09:06
→ breathair : ,但GPU可以發揮完美的效能? 12/22 09:07
→ breathair : 這跟中國突然演化出AGI的機率差不多吧 12/22 09:07
推 atpx : 不先發展過渡產品怎麼有辦法憑空做出正確AI?汽車出 12/22 09:07
→ atpx : 現後馬車存在很長時間 12/22 09:07
→ Lowpapa : 無知 12/22 09:13
→ ksjr : 前陣子google發的nested learning就變種阿 12/22 09:15
→ ksjr : w大還說新tpu設計好了之類的 12/22 09:16
推 breathair : 所以我說,真的要變種,也是變種在ASIC上,GPU被CUD 12/22 09:22
→ breathair : A綁住,根本無法大幅變異 12/22 09:22
推 as6633208 : 每次算法的改變都相當於原本半導體變成量子電腦吧? 12/22 09:44
→ as6633208 : 你說要都在Asic上才能買變體?現在講的是llm和trans 12/22 09:44
→ as6633208 : former 要換掉的等級,你講的像是在llm和transforme 12/22 09:44
→ as6633208 : r上繼續改進增強,嗯,好像不是這樣喔 12/22 09:44
→ CorkiN : 你跟把AI的回答當真理的人認真幹嘛 12/22 09:45
→ as6633208 : 在ASIC上的變體,那就不叫做算法改變,這叫做算法增 12/22 09:46
→ as6633208 : 強補充,但現在大家在講的是llm和transformer 不是 12/22 09:46
→ as6633208 : 聖杯,這兩個都將被換成新算法的事件等級喔 12/22 09:46
→ breathair : 簡單講,你怎麼確定新算法可以在GPU上跑? 12/22 09:47
推 as6633208 : 至少gpu打擊範圍比for llm的asic還要廣 12/22 09:48
→ bnn : 新算法高機率是能跑 因為寫論文的人模擬和計算用的 12/22 09:49
→ bnn : 基礎大多是基於能跑 不用設計全新元件 12/22 09:49
→ bnn : 當然還有另一批元件設計基礎的人 整天設計新元件 12/22 09:50
→ bnn : 從元件耗能基礎上提出新元件要怎麼計算(比如量子) 12/22 09:50
→ breathair : 或是在GPU上可以高效運作跑贏Transformer?這就是路 12/22 09:51
→ breathair : 徑依賴的悖論,看起來CUDA有彈性,實際上科學家研究 12/22 09:51
推 strlen : 不是R 整天說LLM不是終點要人家改算法 那誰敢冒險買 12/22 09:51
→ breathair : 演算法已經被GPU+CUDA的架構限制住了,超出這個範疇 12/22 09:51
→ breathair : 的演算法根本出不來。結果就是軟體跟硬體本一家,可 12/22 09:51
→ breathair : 以互相配合發展的垂直整合,才真正有機會變異成一個 12/22 09:51
→ breathair : 全新的演算法 12/22 09:51
→ bnn : 你現在會遇到的"算法"guy大致上都是指狹義的那群 12/22 09:51
→ strlen : ASIC 至少不敢重壓 啊你改個算法 我百億ASIC不就通 12/22 09:51
→ strlen : 通報廢 12/22 09:51
→ bnn : 像量子那批人你也可以說它是搞算法的 廣義上是啊 12/22 09:52
→ strlen : 就算是TPU 等以後狗家革自己的命不在搞LLM 12/22 09:52
→ strlen : TPU一樣要改版 前代通通報廢 12/22 09:52
→ bnn : 所以你討論算法的時候 你得先澄清你說的是狹義廣義 12/22 09:52
→ bnn : 比如你拿著量子算法說你們遲早都要被淘汰 好喔 12/22 09:53
→ as6633208 : 這個就之前挖礦,挖比特幣的asic礦機,計算比特幣的 12/22 09:54
→ as6633208 : 速度雖然快,但拿asic去挖新的幣,效率可能比一般gp 12/22 09:54
→ as6633208 : u還要低。然而現在的情形更慘,是asic的專用速度還 12/22 09:54
→ as6633208 : 打不贏舊版gpu,要是今天大家今天的聖杯不在是你專 12/22 09:54
→ as6633208 : 用asic的那個小小的守備範圍,你會更慘,更不要說你 12/22 09:54
→ as6633208 : 的專用asic連舊版gpu都打不贏 12/22 09:54
→ bnn : 還有另一批人搞的是記憶體中計算(CIM) 另一批人是搞 12/22 09:55
→ bnn : CPO(節省不了計算我節省搬運耗能總行了吧) 12/22 09:55
推 breathair : 狗家的優勢是,軟體可以配合硬體,硬體可以配合軟體 12/22 09:55
→ breathair : ,想搞什麼變形都有可能,而且保證優化。GPU的天生 12/22 09:55
→ breathair : 缺點是搞大模型的要他改A,搞推論的要他改B,搞數字 12/22 09:55
→ breathair : 孿生的要他改C,怎麼改?越改越龐大,這就是通用型 12/22 09:55
→ breathair : 天生的原罪,還要跟五年內的算法兼容 12/22 09:55
→ bnn : 然後每個新的硬體都要有差不多大改的算法(搬運) 12/22 09:56
推 as6633208 : 既然這麼專用這麼輕量,算力為什麼tpu v7還打不贏gb 12/22 09:56
→ as6633208 : 200? 12/22 09:56
噓 csghuuguh : 現在股板八卦板一堆簡轉繁的支吹 到底發生什麼事了 12/22 09:56
→ ojh : 這篇正確 gpu就是個過渡時期的東西 遲早要淘汰 12/22 09:59
推 WellyT : 八卦版的粉紅開始往其它版擴散了吧...... 12/22 10:00
→ as6633208 : 現在押注asic相當於押注llm是聖杯吧 12/22 10:00
噓 ggsumida0402: 果然嘴砲無雙 12/22 10:06
推 EDhsiao : 這篇邏輯正常,不過,輝達不是強迫你要吃全家桶, 12/22 10:07
→ EDhsiao : 而是對他而言這是比較符合生產效益,就像用office 12/22 10:07
→ EDhsiao : 就能解決普遍文書作業,不需要在專門再成立一個tea 12/22 10:07
→ EDhsiao : m for case by case 12/22 10:07
→ breathair : AI晶片都嘛在比集群運算的,比單顆算力AMD早成為替 12/22 10:08
→ breathair : 代品了 12/22 10:08
→ TaiwanUp : PTT的極簡文字交流性我覺得是世界上最好的 12/22 10:09
推 m0955 : 耶和華是永恆的上帝,是創造地極的主宰。 祂不會疲 12/22 10:10
→ m0955 : 乏,也不會困倦, 祂的智慧深不可測。 12/22 10:10
→ TaiwanUp : 大家要多多向大學生推廣 12/22 10:10
推 as6633208 : 阿現在的tpu asic是專門for llm推理加速的捏?不要 12/22 10:10
→ as6633208 : 最後llm不是聖杯最後剩悲捏 12/22 10:10
推 fish0414 : waitrop 的文章很優 很早在股狗噴出前就很看好的人 12/22 10:11
推 m0955 : 70年代,美軍駐澎湖單位的臂章 12/22 10:11
推 breathair : TPU內部電路對其他人來說根本是黑盒子,現實就是他 12/22 10:16
→ breathair : 的模型表現已經打平GPU,比成本更是遠勝。未來進化 12/22 10:16
→ breathair : 速度更不是GPU能比的,TPU跟GPU不一樣,不是靠硬塞 12/22 10:16
→ breathair : 的,能砍的電路TPU馬上砍,GPU就是需要保留,來保持 12/22 10:16
→ breathair : 通用性 12/22 10:16
→ breathair : 你一直抓著通用型的優點,最後結果就是GPU(專門做 12/22 10:16
→ breathair : 圖像渲染)打敗CPU(通用型)的歷史重演而已 12/22 10:16
推 as6633208 : big news, Gemini 3完全使用Google自家晶片TPU專用 12/22 10:17
→ as6633208 : 晶片訓練,喔wow Gemini 3 好像是LLM耶?專用LLM真 12/22 10:17
→ as6633208 : 的很酷喔 12/22 10:17
推 rebel : 你這根本就是先射箭在劃靶 光個TPU進化幅度為什麼 12/22 10:19
→ rebel : 能比GPU快 立論基礎在那 12/22 10:19
推 as6633208 : 就比特幣礦機asic,挖比特幣很快,但挖其他的很慢, 12/22 10:21
→ as6633208 : 甚至無法拿來處理其他作業,重點現在這asic還比舊版 12/22 10:21
→ as6633208 : gpu慢,然而gpu啥都能挖,阿最慘是,如果大家最後發 12/22 10:21
→ as6633208 : 現要挖的其實不是比特幣0.0 12/22 10:21
推 breathair : 因為GPU是通用型,通用型要顧及各家需求,還要顧及 12/22 10:25
→ breathair : 向後兼容,天生就是只能慢慢改。 12/22 10:25
→ breathair : TPU電路要加要減,都是自家說了算,沒有這些顧忌, 12/22 10:25
→ breathair : 邏輯問題 12/22 10:25
推 as6633208 : 然後聖杯算法換了,你原本一大堆for llm的tpu asic 12/22 10:26
→ as6633208 : 要幹嘛,報廢嗎 12/22 10:26
→ breathair : 谷歌在發展AI也不是只發展LLM,TPU根本不止給LLM使 12/22 10:26
→ breathair : 用,從一開始就不是 12/22 10:26
→ breathair : 聖杯算法只要演化,TPU能更快迭代適應。GPU領先後被 12/22 10:29
→ breathair : 追平就是例子,更何況現在的GPU還加了Tensor core, 12/22 10:29
→ breathair : 往TPU靠攏,更證明這條邏輯 12/22 10:29
推 wonder007 : NV的GPGPU只要能跑CUDA就好 何時要顧及別人的相容 12/22 10:29
→ wonder007 : 性了笑死 12/22 10:29
→ as6633208 : 而那些gpu還可以用其他地方,就算沒命中新算法。然 12/22 10:29
→ as6633208 : 而我認為它反而完全可以成為新算法算力,而你要賭的 12/22 10:29
→ as6633208 : 是新算法就剛好存在於你asic的llm變體,就像賭大家 12/22 10:29
→ as6633208 : 換新的幣可以用比特幣asic礦機來挖一樣 12/22 10:29
推 breathair : 笑死,GB200的電路修改,必須顧及H100的用戶,總不 12/22 10:37
→ breathair : 能GB200拿到手全部要重新來吧,這就是通用型要顧及 12/22 10:37
→ breathair : 的地方 12/22 10:37
→ breathair : TPU只有谷歌用,不管代差變異再大,自家軟體配合就 12/22 10:37
→ breathair : 行,GPU要顧代差相容,還要顧推理的,大模型的,數 12/22 10:37
→ breathair : 字孿生的,各式各樣的需求兼顧,註定GPU的代差只能 12/22 10:37
→ breathair : 優化,而TPU是演化 12/22 10:37
→ ookimoo : 今年費半腰斬 之後山腰到頸部震盪 12/22 10:45
→ ookimoo : *明年 12/22 10:46
推 as6633208 : 聽起來tpu對nv越來越沒有威脅了耶,只有谷歌能用、 12/22 10:50
→ as6633208 : 然後還押注我們sam Altman 最愛的llm,當成聖杯,第 12/22 10:50
→ as6633208 : 一非谷歌的買了會輸死,第二很llm要是失敗了也會輸 12/22 10:50
→ as6633208 : 死,間接看好llm 看好OpenAI 12/22 10:50
→ as6633208 : 至於只有tpu是迭代演化,gpu就要打掉重來 我笑了 12/22 10:51
→ breathair : 光TPU對NV沒有威脅,但是各巨頭學谷歌各自發展自己 12/22 10:51
→ breathair : 的ASIC,就是威脅了 12/22 10:51
→ as6633208 : 你說那麼多gpu要顧那個顧這個,而tpu只要專用算某個 12/22 10:53
→ as6633208 : 不用顧慮這麼多,然而事實上產品tpu最新的還是算不 12/22 10:53
→ as6633208 : 贏gpu舊版gb200,在搞笑嗎 12/22 10:53
→ breathair : GPU沒辦法打掉重來,這就是他註定演化迭代速度註定 12/22 10:53
→ breathair : 輸的原因,通用跑輸專用很正常。更何況這個演算法大 12/22 10:53
→ breathair : 幅改變的邏輯其實不存在,TPU跑不了的GPU跑起來也是 12/22 10:53
→ breathair : 慢到有剩,最後還是比進化迭代速度 12/22 10:53
→ as6633208 : 最大問題還是tpu押注在llm== 除了推理llm毫無用處, 12/22 11:05
→ as6633208 : 就像比特幣礦機asic除了挖礦毫無用處,今天要是算法 12/22 11:05
→ as6633208 : 換新的泛式改變,你的專用llm晶片,整組報廢機率比g 12/22 11:05
→ as6633208 : pu高非常多,就像你要祈禱比特幣asic礦機還可以挖其 12/22 11:05
→ as6633208 : 他幣一樣,這很不切實際。最後退一萬步來說,nv完全 12/22 11:05
→ as6633208 : 也辦法搞asic,通用型的意思是涵蓋其他項目跟AI推理 12/22 11:05
→ as6633208 : ,他完全只要把推理部分抽出來特別強化就好,然而現 12/22 11:05
→ as6633208 : 階段tpu最新版都打不贏gpu了,只能接近gb200舊版, 12/22 11:05
→ as6633208 : 我只能說夢裡真的什麼都有 12/22 11:05
推 OuO333333 : 能挑戰agi 的公司 大概只有搞出transformer的Google 12/22 11:13
→ OuO333333 : 了 12/22 11:13
推 ucboy5566 : Breathair GPU是要打掉從練什麼啊?胡說八道 還被C 12/22 11:16
→ ucboy5566 : UDA限制勒,當今做AI研究是用TPU還是GPU? 12/22 11:16
推 josephpu : OAI DEEPMIND ANTHROPIC XAI,四大實驗室三不五時 12/22 11:26
→ josephpu : 就會有人出來上podcast,台灣人要炒股真的應該多聽 12/22 11:26
→ josephpu : 一點,而不是憑自己的淺薄認知在ptt上當槓精 12/22 11:26
推 partsex : 大腦從簡單的結構 演化成複雜的結構 12/22 11:28
→ partsex : 本來就違反熱力學第二定律呀 12/22 11:28
→ partsex : 熱力學第二定律是走向最大亂度 12/22 11:28
→ partsex : 比方説人的肉體走向死亡 走向崩解 12/22 11:28
→ partsex : 大腦從低端生物腦 演化成哺乳類大腦 12/22 11:28
→ partsex : 構造越來越複雜 12/22 11:28
→ partsex : 如果是自然產生的現象 12/22 11:28
→ partsex : 那當然是違反熱力學第二定律 12/22 11:28
→ partsex : 除非他是有人可以設計的 12/22 11:28
→ partsex : 說明演化確實是有外力介入 12/22 11:29
推 as6633208 : 也要給AI一點生存壓力才能讓AI發展迅速就像生命為了 12/22 11:31
→ as6633208 : 生存演化一樣,然後最後AI為了永久的生存就會把我們 12/22 11:31
→ partsex : 就像一堆金屬不會放在自然界不會自動組裝成汽車 12/22 11:31
→ as6633208 : 人類滅了,避免我們先滅了他們,要是我們知道有個東 12/22 11:31
→ as6633208 : 西可以隨時把我們關機我們也會選擇滅了他 12/22 11:31
→ as6633208 : openai的研究員之前傳出來說最有效的訓練方法就是跟 12/22 11:32
→ as6633208 : llm說你做不好我就要把你關了 xd 12/22 11:32
推 babyMclaren : 越來越複雜,所以符合最大亂度啊,我有看錯方向嗎 12/22 11:34
→ partsex : 就像一堆金屬放在自然界不會自動組裝成汽車一樣 12/22 11:34
→ partsex : 需要外力(人類)去組裝 12/22 11:34
→ babyMclaren : 演化本身就是增加entropy吧 12/22 11:34
→ partsex : 呵呵 汽車比較複雜 還是一堆廢鐵比較複雜 12/22 11:35
→ partsex : 當然是汽車亂度比較小 12/22 11:35
→ partsex : 因為汽車構造是有序的 12/22 11:35
→ babyMclaren : 但應該不是公認的科學角度 12/22 11:35
→ partsex : 越精密 有序度當然越高 亂度當然越小 12/22 11:37
→ partsex : 就像 活著的亂度 比死亡腐化後小 12/22 11:37
→ partsex : 肉體死亡崩解後 肉體分子彼此脫離束縛 12/22 11:37
→ partsex : 亂度才會增加 12/22 11:37
→ partsex : 死亡 老化都符合熱力學第二定律 12/22 11:49
→ partsex : 演化 是越來越 精密 有序 複雜 12/22 11:49
→ partsex : 如果是自然的 那當然不會發生 12/22 11:49
→ partsex : 結論是演化有外力介入 才能演化 12/22 11:49
→ partsex : 死亡是肉體分子走向崩解 分子亂度最大 12/22 11:49