作者 nk11208z (小魯)標題 [菜單] 180K AI深度學習機時間 Sat Nov 4 13:12:08 2023
已買/未買/已付訂金(元):未買
預算/用途:180K
AI深度學習機,主要是要讓機器學習大量的影片 圖片
(會另外將學習素材存放於既有NAS上)
穩定度優先
有考慮過直接買DGX A100或是其他整套的GPU機器
但是價格還是都太高,公司也考慮到折舊問題,之後若要轉手還是普通PC折舊比較好轉手
CPU (中央處理器): Intel i7 14700K
MB (主機板):Gigabyte Z790 Arous ELITE X
RAM (記憶體):ADATA DDR5 6000 32GB*2
VGA (顯示卡):Gigabyte EAGLE RTX4080 *2
Cooler (散熱器):NZXT Kraken 360
SSD (固態硬碟):美光 P5 Plus 2TB
HDD (硬碟):Toshiba 4TB (256MB/7200)
PSU (電源供應器):XPG FUSION 1600W
CHASSIS (機殼):COUGAR Dark Blader X7
MONITOR (螢幕):MAG162V
Mouse/KB (鼠鍵):
OS (作業系統):
其它 (自填):UPS CyberPower 3000VA
總價 (未稅/含稅):約:185760(含稅)
注意1:自稱小妹或會透露自己性別的舉動要注意可能會引來不必要的紛擾,請注意。
注意2:標題是否有寫明"預算"、"用途"? 沒有請按Ctrl+x 然後按T改標題
注意3:請多加利用線上估價系統來進行估價以及價格查詢 (僅供參考)
注意4:若遇新品問題請勿發除錯文,請直接回原購買處處理。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.169.175.158 (臺灣)
※ 作者: nk11208z 2023-11-04 13:12:08
※ 文章代碼(AID): #1bHTAgx2 (PC_Shopping)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1699074730.A.EC2.html
→ Zenryaku: AI不買4090是怎樣
穩定度優先怎麼會買DDR5
電源也不用這麼貴這麼大瓦的
你知道4090跟4080差距多大嗎?你預算又不是不夠,降CPU都行1F 220.136.85.1 台灣 11/04 13:14
兩張4080所以上到1600W,4090不選是因為,VRAM來說兩張4080比單張4090多
現在AI很吃VRAM
目前也在考慮要把4080改成8+6pin版本,新款的電源災情感覺還是有
DDR5現在蠻穩定的吧
→ Boston: 180K 可以來個兩張 4090 吧?6F 1.169.70.158 台灣 11/04 13:22
抱歉,已更正8+6PIN
※ 編輯: nk11208z (1.169.175.158 臺灣), 11/04/2023 13:41:40
→ Zenryaku: 兩張4080又不能連動 算得又不會比較快而且這種機殼要怎麼塞兩張4080
一張卡就四槽了,你只有七槽pcie你兩張要插哪
DDR5哪有穩定
D5你這64G插下去就沒得加了哦,插四條只能跑4000吧8F 220.136.85.1 台灣 11/04 13:43
機殼的話,這咖支援垂直安裝
python支援雙顯卡同時運算,主要是分攤VRAM
記憶體效能到是其次,64G應該可以吃很久,主要是GPU
因為公司2020年時就是這樣組的,RD也說沒問題(那時候是用兩張3080)
不過那時候不是我組的,我拿來參考
※ 編輯: nk11208z (1.169.175.158 臺灣), 11/04/2023 13:52:44
→ amd7356: 你不都開到18萬了 2張4090可以吧
主機板應該要去買那種特規了吧?15F 36.227.98.152 台灣 11/04 13:50
→ Zenryaku: 能垂直安裝你也裝不了兩張啊
算了你不信就不信 反正裝不上去不是我的問題17F 220.136.85.1 台灣 11/04 13:55
不過老實說我也不是很建議兩張顯卡擠在機殼裡
目前還有一個方案是水冷,Zen大感謝你的建議
讓我有更多我之前沒想到的思路
※ 編輯: nk11208z (1.169.175.158 臺灣), 11/04/2023 13:59:45
→ Zenryaku: 你這個不是擠在一起的問題 是根本裝不上去21F 220.136.85.1 台灣 11/04 13:58
周一再嘗試說服高層直接買gpu 機器好了....
省的自找麻煩
※ 編輯: nk11208z (1.169.175.158 臺灣), 11/04/2023 14:00:56
※ 編輯: nk11208z (1.169.175.158 臺灣), 11/04/2023 14:01:41
→ boren: 只要vram的話不是有3090嗎?還可以nvlink,然後主板只有一個x16pcie的話,插兩張4080有點不明所以
買個繪圖工作站插4張A2000也有48G vram可用,這樣也應該在預算內23F 114.34.254.164 台灣 11/04 14:04
推 meowgy: 公司用的幹嘛用機殼?去收二手開放式礦架就好了28F 1.200.138.111 台灣 11/04 14:09
噓 allancool500: 不是啊你以為支持垂直安裝就能裝二張?你以為裝起來會是「T」型,但實際會卡住變成「十」型啊==30F 27.52.70.170 台灣 11/04 14:09
推 star99: 看CUDA數量吧 然後也要看你深度演算法33F 111.82.227.245 台灣 11/04 14:24
→ chang1248w: torch和tf都只支援batch-wise的
distribute training吧,一張卡放不下的模型,兩張卡也放不下34F 42.73.187.27 台灣 11/04 14:29
推 promaster: 竟然有這種硬幹硬上的黑科技 那怎不考慮三張4070分攤vram?37F 114.43.66.30 台灣 11/04 14:45
推 yenchieh1102: 要不麗臺 NVIDIA RTX 4000 SFF Ada(20GB GDDR6)先來個兩張,20+20Vram比4080多,又是兩槽卡輕鬆裝39F 1.34.147.124 台灣 11/04 15:40
→ cutejojocat: 3000VA那條插座是nema l5-30p要注意 看要不要乾脆問看看220V的 然後工作用找運算卡或是找廠商包維護吧42F 36.229.233.4 台灣 11/04 19:02
推 wres666: 有管道的話現在還買的到3090 我們教授前兩個星期才買四張45F 106.64.25.19 台灣 11/04 19:55
→ Zenryaku: 拿4000sff ada確實是一個解法,這張卡很小張47F 220.136.85.1 台灣 11/04 20:22
--