看板 Stock作者 jacknavarra (阿姆羅)標題 [新聞] 輝達壟斷地位將打破 ? 「地表最強」AI模時間 Fri Mar 14 15:37:22 2025
自由財經
輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、
Meta
https://ec.ltn.com.tw/article/breakingnews/4979570
2025/03/14 11:04
高佳菁/核稿編輯
〔財經頻道/綜合報導〕各家科技大廠陸續推出自家的AI大模型,但近期最受市場注目的
,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就
是,這款AI模型單可單晶片運作,只需「1個」H100晶片。這意味著,Google未來只需訂
購輝達少量的高階晶片,就能展現開發AI模型的成本效益。
分析師指出,Google推出的新AI模型,只需用1個H100就可運行,該模型的表現還超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個)。
此數據對輝達來說,未來市場用戶無需購買大量其GPU晶片,即可部署先進的AI應用程式
未來高階晶片出貨量,恐將影響輝達的高階晶片出貨量。此外,Google TPU等替代硬體平
台積極發展,加上類似Gemma 3等優化模型將陸續出現,未來輝達在AI訓練和推理方面的
優勢約80%的市占壟斷地位,恐被逐步打破。
據報導,Google的新AI模型對輝達在AI硬體市場主導地位的挑戰,主要來自於Google正在
積極建構開放、多元的人工智慧生態系統,以支持學術研究並推動商業應用創新,並透過
可在多種硬體平台上高效能運行的模型,計劃減少對輝達高階GPU的依賴。
Google聲稱,Gemma 3 是「全球最強的單加速器模型」,經過針對輝達GPU和專用AI硬體
的優化,無需大量部署GPU就能運行先進的AI應用。值得注意的是,該模型的表現超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個),凸顯了Google的成本效益。。
另外,Gemma 3 特別引人注目的原因,除了「效率」,另一大功能「多功能性」也與其他
大模型不同。外媒指出,Gemma 3 可以無縫處理文字、圖像甚至短影片,這種多模式能力
為從視覺問答到基於圖像生成故事等各種應用打開了大門。
===
天下苦黃已久
紛紛推出可能擺脫輝達的策略
但終究還是要用輝達的晶片
除非有人能用別家晶片做出更好的AI設備
不然依然是要交錢給輝達阿
依舊看好
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.250.144.251 (臺灣)
※ 作者: jacknavarra 2025-03-14 15:37:22
※ 文章代碼(AID): #1dqzoqPW (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1741937844.A.660.html
※ 同主題文章:
[新聞] 輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、
03-14 15:37 jacknavarra
→ mystage: 北七,訓練跟運作本來就不一樣3F 03/14 15:38
→ mystage: 記者會不會是文組的啊?這麼外行5F 03/14 15:39
推 a0808996: 笑死 就說硬體過剩了 過年還被一堆人嗆xd6F 03/14 15:39
→ Transposon: 晶片還是GG產,但客戶各自交單議價,量不多就可以加價,噴7F 03/14 15:40
推 icrose: 這樣搞GOOGLE自己的股票也得掉下來9F 03/14 15:40
推 quann: 好啊 那就降資本支出阿12F 03/14 15:40
推 karta018: 鏟子還是要買,只是學會念的應用技就不用買那麼多了13F 03/14 15:40
推 caity: 怎麼硬體需求越來越少,怕爆14F 03/14 15:41
推 SuGK: 周末鬼故事開始了嗎15F 03/14 15:41
推 VVizZ: 硬體需求少 那硬體推上去不會更強嗎18F 03/14 15:42
推 a0808996: 矽谷都是精英軟體工程師 靠硬體撐運算 能聽嗎19F 03/14 15:42
→ caity: Google 搞軟體又不搞硬體,為啥他要下去?20F 03/14 15:42
噓 sky777: 推理本來就不需要什麼太高階的卡 訓練才需要21F 03/14 15:42
推 tomdavis: 周末鬼故事來拉 搭配鴻海開營收 周一跌停能買嗎?22F 03/14 15:42
推 gn7722: 越來越會掰23F 03/14 15:43
推 tony15899: 丸了 需求剩幾百分之一 GG100收24F 03/14 15:43
推 Toge: 用來用去還是 Grok 3 好用,又快又精準回答25F 03/14 15:43
→ caity: 經濟效應吧像是堆到多少再往上疊硬體效果增加變小26F 03/14 15:44
→ deann …
推 deann: 谷哥更強28F 03/14 15:44
推 a0808996: 繼續堆硬體 保證未來都收不回來30F 03/14 15:45
→ Toge: 但還是期待有一天能在手機上離線運作32F 03/14 15:46
推 jason0925: 硬體AI 死去 edgeAI 蓬勃發展34F 03/14 15:46
推 wemee: ok 明天輝達熔斷35F 03/14 15:46
推 AGODC: 就是準不準跟費用中間,去搞個平衡點39F 03/14 15:47
→ bojan0701: 硬體堆上去應更強,可是帶來的效益?40F 03/14 15:47
推 strlen: 一鍵出清 反手作空 AI泡沫 勢在必行42F 03/14 15:49
推 a0808996: 中國靠更低的成本運行ai 你還在堆硬體47F 03/14 15:50
推 s881720: 老黃乖乖回去賣顯卡吧48F 03/14 15:50
推 pziix: 題材臭酸了 可以再端新穎的東西出來嗎49F 03/14 15:50
推 strong66: 無需購買大量GPU晶片 就是最大利空50F 03/14 15:51
推 Brioni: NV: 你不要再說了51F 03/14 15:51
→ s860703: 台股沒破22000都是假議題52F 03/14 15:51
→ a9564208: 所以接下來是ASIC的回合?53F 03/14 15:51
→ summer08818: NV: 你要採購少一點 那我每顆報價高一點不就好了55F 03/14 15:52
推 QooSnow: (請問)(如果你)(吃一個便當)(就8分飽,)(你會)(同時買)(1萬個)(便當嗎?)57F 03/14 15:52
推 ssarc: 針對輝達優化?61F 03/14 15:52
推 anyu0805: 照這個道理蘋果股價應該趴在地上了~63F 03/14 15:52
推 nasarood: 效能2.5倍價格兩倍你還是得買。單價更便宜。64F 03/14 15:52
→ summer08818: ASIC 問題在於你自己造車造輪子 會不會比較便宜阿XD66F 03/14 15:53
推 qwe78971: 單晶片運作 一堆菜雞扯訓練要幾個幾個 到底懂不懂 真得笑死 一群小丑69F 03/14 15:54
→ jinhouse123: 等RobotTaxi和家用Robot問世,再跟我說進到AI時代71F 03/14 15:54
→ ImHoluCan: 還有騰訊昨天說買了多少Nvidia gpu 怎不說呢72F 03/14 15:54
推 Brioni: ASIC沒軟體更新速度那麼快,但是NV卡今年這批出完後續拉貨力道有待考驗73F 03/14 15:55
推 c928: 大家一起來唬爛75F 03/14 15:56
推 HiuAnOP: 1個H100是Ai那10個H100是不是就變愛因斯坦了!76F 03/14 15:56
→ rbelldandy: 不重要,能賺錢就好不可有人NV套在140以上吧79F 03/14 15:59
推 MrStone: 算力需求低為什麼以前寫不出來AI83F 03/14 16:03
推 zerro7: AI鬼故事平均一個月會出現一個85F 03/14 16:04
推 ganbee: 誰攏都可以,只要免錢我就用。87F 03/14 16:05
推 jimmy12332: 任何人都能去hugging face下載一個LLM來玩88F 03/14 16:06
推 ccdrv: 到周末 鬼故事特別多92F 03/14 16:09
推 syoritoo: 還在講算力過剩的 不是壞就是騙了93F 03/14 16:11
→ tmdl: 笑死
不是說人工智能會以幾倍速成長95F 03/14 16:11
推 noahlin: 有沒有新梗啊 整天炒作這個不無聊嗎
難道GG一直擴廠是腦袋有問題嗎97F 03/14 16:13
推 zerro7: AI沒到頂之前哪來的算力過剩問題 難理解99F 03/14 16:13
噓 idlewolf: 除非能少到讓他產能過剩 不然還不是要用老黃 壟斷沒打破阿 連定義都搞不清楚就在發稿 水準可悲248F 03/14 23:37
噓 a731977: 這模型真的不怎樣- -250F 03/15 01:41
推 xm3u4vmp6: 傻了嗎 在開發出上帝等級全知大腦前 算力永遠不夠251F 03/15 06:49
--
中間的PTT推文已隱藏
點此載入...
噓 idlewolf: 除非能少到讓他產能過剩 不然還不是要用老黃 壟斷沒打破阿 連定義都搞不清楚就在發稿 水準可悲248F 03/14 23:37 噓 a731977: 這模型真的不怎樣- -250F 03/15 01:41 推 xm3u4vmp6: 傻了嗎 在開發出上帝等級全知大腦前 算力永遠不夠251F 03/15 06:49 --