作者 LDPC (Channel Coding)標題 Re: [新聞] 輝達A100、H100獨家供應商!法人調高緯創時間 Wed Jul 5 03:09:32 2023
前陣子自家公司GPU也不夠用了...在測試一堆想法時候 決定自掏腰包去租外面GPU
找了幾間像是
https://lambdalabs.com/ 結果...wtf 也是大爆滿
GPU Cloud, Clusters, Servers, Workstations | Lambda
GPU Workstations, GPU Servers, GPU Laptops, and GPU Cloud for Deep Learning & AI. RTX 3090, RTX 3080, RTX A4000, RTX A5000, RTX A6000, and A100 Op ...
看了幾個AI論壇 一堆自行開發者都自己測試各種pretrained model的下游fine-tune
也是各種哀嚎搶GPU 以前這幫個人開發者在自己的RTX 就可以簡單測試 但現在的
LLaMA也好 Diffusion也好 越來越難在家用遊戲顯卡上跑
尤其這陣子流行Foundation Model 每個小測試GPU都要xN (N>16) 這種方式去train
對比幾年前一兩個GPU就能搞出點東西的時代過去了 現在就是萬物暴力解
CLIP這種東西甚至資料都高達數個TB 以後二線公司沒足夠GPU就是別想玩大模型設計
Pretrain/Foundation Model 全部只能做下游adapter 然後第三方或個人開發者
就可以拿這些fine-tune model 去設計自己需求 各種AI落地方案開始遍佈
然後這種大模型就是造就GPU極度缺乏!!!! 最近找遍各種第三方GPU租用計算之後
以及在內部公司 隨便丟個大模型測試 都要在自家公司上server排隊個三四天才能跑
第三方租用 我已經等了一個禮拜 根本排不到 甚至看了一下討論串 感覺一堆矽谷各公司
都在屯GPU
https://shorturl.at/ouwMS https://udn.com/news/story/6811/7199315
上週的感覺真讓我想起2020 我那時候為了買個家俱 要等上半年以上..於是默默地
就繼續加碼三大股的其中兩個
如果蘇媽MI-300真的好用話 會一定分流 不過現階段H-100的優勢就是有Transformer
加速優勢(據說三倍加速以上) 而MI-300沒這優勢 尤其現在AI架構都是萬物Transformer
這波就是Transformer/Foundation Model+硬體暴力解 搭配Fine-Tune搞起AI流
(有興趣可以看FeiFei Li 那幫人對Foundation Model的預測和見解
https://arxiv.org/abs/2108.07258) 順帶一提Qualcomm這波完全選擇AI光譜的另一端
他們選走on-device路線 就是大模型對立面 大模型和on-device可以說是AI極大和極小
概念 看起來華爾街這幫人對on-device題材 完全不感興趣
老黃當年第一個提出GPU概念 從2000~2010 跟ATI每六個月增加硬體效能
互相硬體效能瘋狂對決 軍備競賽 帶動3D遊戲市場 感覺歷史又再一次循環...
https://www.youtube.com/watch?v=BlI9PVQA8ZA
然後以後人類的用途就是去當電池了QQ 這波AI繼續搞下去 以後一定缺電
--
99AMD/99TSLA/99NVDA!
※ 引述《xephon (′・ω・`)》之銘言:
: 原文標題:輝達 A100、H100 獨家供應商!法人調高緯創目標價到 115 元
: 原文連結:https://technews.tw/2023/07/04/h100-gpu/
: 發布時間:2023 年 07 月 04 日 10:01
: 記者署名:姚 惠茹
: 原文內容:
: 緯創為輝達 A100、H100 GPU(圖形處理器)的主要獨家供應商,而且今年第四季後 AMD
: MI300 的出貨量將攀升,預估 2023 年和 2024 年的 AI 營收將成長到 220 億元、420
: 億元,因此法人將緯創目標價從 55 元上調到 115 元,主要獲利趨勢持續向上,並維持
: 「增加持股」的評等。
: 緯創 6 月營收 811 億元,月增 28%,年減 20%;稅前獲利 34.5 億元,淨利 17.3 億元
: ,每股稅後盈餘(EPS)0.62 元,獲利優於預期;今年第二季營收 2,065.5 億元,季減
: 2.6%,年減 15%,稅前淨利率 4.3% 創歷史新高。
: 法人表示,緯創受到產品組合改善,以及 GPU 基板和子公司緯穎營收擴增將推升 2024
: 年的每股稅後盈餘,並根據同時期輝達(NVIDIA)GPU 出貨量 113 萬顆、203 萬顆,以
: 及 AMD MI300 與 Google TPU 出貨量,預估 2023 年和 2024 年 AI 伺服器出貨量將成
: 長至 17.4 萬台、31.4 萬台。
: 法人指出,緯創為 A100、H100 GPU 的主要獨家供應商,而且第四季後 AMD MI300 出貨
: 量攀升,預估 2023 年和 2024 年 AI 營收將成長至 220 億元、420 億元,雖然 AI
: GPU 基板的營收貢獻僅 2~4%,但是預期該毛利率較高,分別貢獻 2023~2025 年營業利
: 益 16%、23%、25~30%。
: 法人分析,緯創企業伺服器營收回升,來自思科(Cisco)、戴爾(Dell)、Supermicro
: (美超微)及緯穎營收擴增,預估伺服器營收貢獻將自 2023 年的 37%,提升至 2024 年
: 的 43% 與 2025 年的 48%,而同期間伺服器獲利貢獻則從 56%、58% 到超過 60%。
: 法人強調,看好緯創未來數年的獲利成長動能,並將清理虧損業務減少 2023 年獲利不確
: 定性,正面看待緯創 2024~2025 年的獲利,可望受惠伺服器營收攀升及獲利負向因子有
: 限,因此將緯創目標價自 55 元調高到 115 元,並維持「增加持股」的評等。
: 心得/評論:
: 這種股票是反應 2024-2025 的營收
: 根本還沒到,所以現在多爛都不會跌
: 奉勸空空不要想不開
: 緯創能空的時機,要等 NVDA 跌下神壇
: AI 神話完結,到時候跌回 30 元都可能
: 但只要 AI 股預期未來 2~3 年的營收,這炒法不結束
: 就永遠不會跌
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.163.64 (美國)
※ 作者: LDPC 2023-07-05 03:09:32
※ 文章代碼(AID): #1af6vk3Z (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1688497774.A.0E3.html
※ 同主題文章:
Re: [新聞] 輝達A100、H100獨家供應商!法人調高緯創
07-05 03:09 LDPC
※ 編輯: LDPC (76.103.163.64 美國), 07/05/2023 03:12:55
※ 編輯: LDPC (76.103.163.64 美國), 07/05/2023 03:20:14
※ 編輯: LDPC (76.103.163.64 美國), 07/05/2023 03:31:55
※ 編輯: LDPC (76.103.163.64 美國), 07/05/2023 03:35:56
→ yangyy2: 改用浸沒式水冷可以大幅節電,阿里巴巴的資料中心很早之前就用浸沒水冷了3F 07/05 03:52
噓 winner0429: AI大氾濫時代 一堆參差不齊的公司寫一些垃圾AI來浪費電的5F 07/05 03:58
※ 編輯: LDPC (76.103.163.64 美國), 07/05/2023 04:11:11
→ musie: 這波不會一直下去 1. LORA等新技術壓縮
2.資料品質遠重於數量: Textbook is all you need3.Autoregressive LLM有其極限在.很快大家就發現
怎麼fine tune 都修東壞西..
差不多一年就會緩和了 除非有新的架構出現9F 07/05 04:11
推 aresa: 新概念永遠是brute force的,接下來肯定會出現個神經病提出一個很優美的算法然後直接被寫進課本供著14F 07/05 05:01
→ ichitakajoe: 跟挖礦消耗顯卡差多了吧
ABF的需求好像也是喊到2030?16F 07/05 05:27
推 strlen: 嗯...這個有點AI泡沫的味兒惹 這群中咖小咖瘋搶GPU但最後一個一個就像煙火一樣爆完就 啪 沒惹 然後又爽到老黃20F 07/05 06:28
推 poru: AI就算力較強的晶片,這本來在晶片技術演進上就早晚的事,只是把他灌個AI附加價值就高出一般晶片好幾倍,根本是提早吃未來老本
下次在遇到經濟不景氣,不就要改推出super 級AI來拯救23F 07/05 06:38
推 AndyMAX: 遲早的事 一堆人不相信30F 07/05 07:15
→ come: 輝達明明就是跟美超微合作的,不知道緯創在漲什麼32F 07/05 07:54
推 create8: 幹,要變電池惹,工程師有優待嗎QQ33F 07/05 08:06
→ hydra7: 我電池我驕傲~35F 07/05 08:15
推 deepelves: 輝達跟超微合作這是老黃要跟蘇媽一起發大財嗎?37F 07/05 09:53
→ LDPC: 樓樓上是說Supermicro超微才不是AMD的超微38F 07/05 09:58
→ appledick: AI論壇不是在流行跑在APPLE的晶片上了,便宜又大碗散熱又好39F 07/05 10:08
推 csluling: 看到deepelves的推文,今天早上心情都好了~41F 07/05 10:13
推 aegis43210: 某些超肥大的LLM適合跑在m2ultra,但仍不是主流,因為nvlink可以把A100用到640G44F 07/05 14:04
→ Alwen: 老黃的好東西有些只給企業級用戶
個人玩家自己也training不出什麼有用的大殺器46F 07/05 14:35
推 MiniArse: 除了訓練大模型必備的H100/A100 這波也會帶動 RTX40系列在個人電腦上跑 stable diffusion 之類的應用根據之前某創業家的描述,模型還真的是愈大 效果愈愈好 尤其CUDA發展超過10年 MI很難在短時間追上48F 07/05 14:53
推 blue7896: 歐印AMD,NVDA,SMCI52F 07/05 17:05
--