※ 本文轉寄自 ptt.cc 更新時間: 2026-01-29 10:31:21
看板 Stock
作者 標題 Re: [新聞] OpenAI與硬體供應商Cerebras簽約
時間 Wed Jan 28 16:46:25 2026
bull shit
https://tinyurl.com/4kjvpak2
Cerebras Systems 推出尺寸最大晶片,推理速度超過輝達 Blackwell | TechNews 科技新報 在全球半導體產業中,Cerebras Systems 最近創下新的里程碑,推出了世界上尺寸最大的 AI 晶片──WSE(Wafer Scale Engine),並在 AI 推理速度上超越了 NVIDIA 。這款晶片的尺寸是 8.5 英吋(約 22 公分)的巨大方形晶片,擁有驚人的 40 億個電晶體, ...
這款晶片的尺寸是 8.5 英吋(約 22 公分)的巨大方形晶片
一顆晶片比你的書桌還大張,
這是人類史上最大的晶片,
也是實用性與商業化最低的產品
一顆晶片大概是Rubin 的 8x8=64 10x10=100 倍大小,
良率(壞掉機率)跟面積成正比,
所以這顆晶片的良率是一般GPU TPU的1% - 0.1%,
也就是說,
如果一片晶圓wafer 能產出99%良率的GPU TPU,
Cerebras 這顆晶片的良率大概1%,
如果GPU生產一百萬顆晶片的成本,
大概是Cerebras 生產一萬顆到一千顆晶片的成本
用白話文說,
Cerebras 用大力出奇蹟的方式,
用土豪硬堆最貴的料 最高的成本,
硬堆出來的效能,
只能在PPT上面吹,
完全沒有實用性與商業性
這個其實是業界都知道的事情,
這新聞單純是OpenAI 炒新聞吵估值用的,
事實是根本無法用,
也無法大規模使用,
所以OpenAI 也就不用花錢
https://tinyurl.com/2a323ane
OpenAI豪擲百億美金單押Cerebras!佈署750MW晶圓級算力,劍指全球最大推理平台 OpenAI與美國AI晶片獨角獸Cerebras共同宣布一項長達三年的合作協議,OpenAI將佈署高達750MW (兆瓦) 的Cerebras晶圓級系統 (Wafer-Scale Systems),將打造全球規模最大的高速AI推理平台。據知情人士透露,這筆交易價值超過100億美元 (約合新台幣320 ...
Sam Altman既是客戶也是金主,
OpenAI執行長Sam Altman本人就是Cerebras的個人投資者
Cerebras估值翻倍,OpenAI尋求「非NVIDIA」解決方案
受此大單激勵,Cerebras正在洽談一筆10億美元的融資
※ 引述《h0103661 (單推人) 每日換婆 (1/1)》之銘言:
: 原文標題:
: OpenAI partners with Cerebras
:
: 原文連結:
: https://openai.com/index/cerebras-partnership/:
: 發布時間:
: 2026-01-14
:
: 記者署名:
: ※原文無記載者得留空
:
: 原文內容:
: Cerebras builds purpose-built AI systems to accelerate long outputs from AI mode
: ls. Its unique speed comes from putting massive compute, memory, and bandwidth t
: ogether on a single giant chip and eliminating the bottlenecks that slow inferen
: ce on conventional hardware.
: Cerebras 致力於打造專為加速 AI 模型長文本輸出而設計的專用系統。其獨特的速度優勢
: 源於將海量的運算能力、記憶體與頻寬整合至單一巨型晶片中,進而消除了傳統硬體中限制
: 推理速度的瓶頸。
: Integrating Cerebras into our mix of compute solutions is all about making our A
: I respond much faster. When you ask a hard question, generate code, create an im
: age, or run an AI agent, there is a loop happening behind the scenes: you send a
: request, the model thinks, and it sends something back. When AI responds in rea
: l time, users do more with it, stay longer, and run higher-value workloads.
: We will integrate this low-latency capacity into our inference stack in phases,
: expanding across workloads.
: 將 Cerebras 納入我們的運算解決方案組合,核心目標是顯著提升 AI 的響應速度。無論是
: 提出複雜問題、生成程式碼、創建影像或運行 AI Agents,幕後都存在一個循環:用戶發
: 送請求、模型進行思考、系統回傳結果。當 AI 能實現即時響應時,使用者將能進行更多操
: 作、增加留存時間,並執行更高價值的運算任務。
: 我們將分階段把這種低延遲能力整合到我們的推理中,並逐步擴展至各類工作負載。
: “OpenAI’s compute strategy is to build a resilient portfolio that matches the
: right systems to the right workloads. Cerebras adds a dedicated low-latency infe
: rence solution to our platform. That means faster responses, more natural intera
: ctions, and a stronger foundation to scale real-time AI to many more people,” s
: aid Sachin Katti of OpenAI.
: OpenAI 的 Sachin Katti 表示:「OpenAI 的運算策略是建立一個具韌性的資源組合,將最
: 適配的系統應用於相應的工作負載。Cerebras 為我們的平台增添了專用的低延遲推理方案
: 。這意味著更快的響應、更自然的互動,並為向更多大眾普及即時 AI 奠定了更堅實的基礎
: 。」
: “We are delighted to partner with OpenAI, bringing the world’s leading AI mode
: ls to the world’s fastest AI processor. Just as broadband transformed the inter
: net, real-time inference will transform AI, enabling entirely new ways to build
: and interact with AI models,” said Andrew Feldman, co-founder and CEO of Cerebr
: as.
: Cerebras 共同創辦人兼執行長 Andrew Feldman 則表示:「我們非常榮幸能與 OpenAI 合
: 作,將世界領先的 AI 模型帶到全球最快的 AI 處理器上。正如寬頻改變了網際網路,即時
: 推理也將變革 AI,開啟構建 AI 模型及與其互動的全新方式。」
: The capacity will come online in multiple tranches through 2028.
: 相關產能將在 2028 年前分多個批次陸續上線。:
:
: 心得/評論:
: https://i.meee.com.tw/FhiaPws.png
: Cerebras提供世界唯一的晶圓運算,模型推論速度輾壓GPU,數據比較:
: Cerebras: 2862 tokens/s
: OpenAI: 12 tokens/s
: https://i.meee.com.tw/qvzhS0b.jpg
: Cerebras使用的WSE3晶圓引擎是完全由台積電5奈米製作,
: 等於TSMC間接獲得了OpenAI的三年大單,
: 不找老黃了,但贏家一樣是台積電。
:
:
:
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國)
※ 作者: waitrop 2026-01-28 16:46:25
※ 文章代碼(AID): #1fUSpao7 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1769589988.A.C87.html
推 : 又是左手換右手..玩不膩1F 01/28 16:47
推 : 感謝專業分享2F 01/28 16:49
推 : 一片晶圓切一顆嗎3F 01/28 16:50
對,一片晶圓切一顆,
當初在業界非常出名,
就跟你說人類有史以來第一顆這麼惡搞的
推 : Altman感覺很雷...市場能不能別隨他起舞阿4F 01/28 16:50
推 : 也不一定這麼低啦 可以用軟體關閉部分功能 或燒斷5F 01/28 16:50
→ : 部分保險絲還是可以讓大部分正常部分繼續運作
→ : 部分保險絲還是可以讓大部分正常部分繼續運作
推 : 套特曼的老招,左腳踩右腳,嘻嘻7F 01/28 16:50
→ : 原本沒泡沫感覺都有可能被他弄到泡沫8F 01/28 16:50
※ 編輯: waitrop (76.103.225.6 美國), 01/28/2026 16:52:34→ : 我一直覺得這種面積的晶片散熱很難做,散熱成本應該9F 01/28 16:51
→ : 超級高吧,但這家又都一堆mit跟哈佛博士,很好奇到
→ : 底他們怎麼弄的
→ : 超級高吧,但這家又都一堆mit跟哈佛博士,很好奇到
→ : 底他們怎麼弄的
推 : 一直搞有的沒的框錢,認真點工作好嗎12F 01/28 16:53
推 : $$$$$$$$$13F 01/28 16:54
推 : 這麼大芯片layout不會畫到瘋掉??14F 01/28 16:58
→ : 未來AI要是泡沫真的會是這咖...15F 01/28 16:58
→ : 不會被幹cost超高嗎? 還是只是噱頭而己16F 01/28 16:58
推 : Cerebras應該會fuse掉有缺陷的區域吧我猜 直接丟掉17F 01/28 16:58
→ : 太浪費了 我是覺得它的想法會慢慢被CoWoS取代就是
→ : 太浪費了 我是覺得它的想法會慢慢被CoWoS取代就是
推 : 他應該是為了SRAM才做這麼大19F 01/28 17:00
推 : 不是喔 不是這樣喔 這種多半有設計對應的韌體 A區20F 01/28 17:00
→ : 壞掉就關A區 B區壞掉就關B區 所以不會一個地方壞就
→ : 整塊報銷 相關技術記憶體用很多
→ : 壞掉就關A區 B區壞掉就關B區 所以不會一個地方壞就
→ : 整塊報銷 相關技術記憶體用很多
推 : 他的工作就是框錢啊!一直很認真~~~23F 01/28 17:00
推 : 真的 ~這大概只有文組的會相信24F 01/28 17:01
→ : 反正這個東西我是看不懂 就算做遮蔽 壞掉的面積還是25F 01/28 17:01
→ : 佔在那邊 產值零
→ : 佔在那邊 產值零
推 : 還得是奧懶叫特曼,很會玩金融27F 01/28 17:02
推 : Gross die會很可怕耶…感覺浪費超多面積28F 01/28 17:04
→ : 業界小八卦 群聯早期起家就是低價收購那些有問題的29F 01/28 17:04
→ : 顆粒 然後自己做控制器關掉壞的部份 只留好的部份
→ : 再低價賣給消費者
→ : 顆粒 然後自己做控制器關掉壞的部份 只留好的部份
→ : 再低價賣給消費者
推 : 最近套特曼的新聞都是在找錢,你不能說他不認真,嘻32F 01/28 17:09
→ : 嘻
→ : 嘻
推 : 中東土豪的1000億鎂嘞?34F 01/28 17:15
→ : 大概要沒錢了,資金鏈要斷了
→ : 大概要沒錢了,資金鏈要斷了
推 : 如果AI會破 鐵定是從openAI破口36F 01/28 17:25
推 : 最近奧特曼財務缺口很大,他要是上市公司早就被爆37F 01/28 17:26
→ : 料了
→ : 料了
推 : 光罩曝光接合不會太難搞嗎?39F 01/28 17:30
推 : 笑死,宇宙大燒賣40F 01/28 17:42
推 : 性能是真的,隔壁板我有貼這家跑開源模型的使用心41F 01/28 17:47
→ : 得,至於散熱、良率就反應到價格上。
→ : 得,至於散熱、良率就反應到價格上。
推 : 該不會一通電就蹺起來(?43F 01/28 17:55
推 : 如果一般良率99.999呢44F 01/28 17:56
推 : 如果會泡沫就是他本人害的阿xd45F 01/28 18:01
推 : 電腦記憶體都四通道了 同一區域做兩組接口 某路徑斷46F 01/28 18:04
→ : 掉改另一個接口路徑 跑雙通道也不是太複雜的概念吧
→ : 再換個比喻 路徑未定論 後面測試那邊成功做哪邊不就
→ : 好了
→ : 掉改另一個接口路徑 跑雙通道也不是太複雜的概念吧
→ : 再換個比喻 路徑未定論 後面測試那邊成功做哪邊不就
→ : 好了
推 : 都在想辦法炒新話題圈錢50F 01/28 18:52
噓 : 連Cerebras怎麼處理這問題都沒看就在那想當然而51F 01/28 18:58
→ : 就你最聰明想得到別人都想不到,養一堆博士都塑膠
→ : 陪他練功的台積電也都塑膠
→ : 就你最聰明想得到別人都想不到,養一堆博士都塑膠
→ : 陪他練功的台積電也都塑膠
推 : 不談怎麼營利,只講技術規格,不談成本 。這家公司54F 01/28 19:07
→ : 自己會泡沫化,產業繼續向前走 。
→ : 自己會泡沫化,產業繼續向前走 。
→ : 因為美國投資人的錢真的好騙 從科技業就知道 很多56F 01/28 19:32
→ : 都做不出產值 但是領高薪 那上面一定拿到更多
→ : 都做不出產值 但是領高薪 那上面一定拿到更多
推 : 笑了58F 01/28 19:33
→ : 為什麼22公分的方形晶片 比書桌還大59F 01/28 20:13
→ : Scam Altman就是想一波IPO套現高歌離席60F 01/28 21:57
推 : open將的留言終結者 就是您了61F 01/28 23:06
推 : 這篇文章不太對 Cerebras有特殊設計去處理defect62F 01/29 02:40
→ : 如果Cerebras不能用 美國國家級單位不會搶著用...
→ : Cerebras是產能很低 投資很保守 然後目前都美軍在用
→ : 還有石油國家在用
→ : 他產能和商用需要的規模差太遠了
→ : 如果Cerebras不能用 美國國家級單位不會搶著用...
→ : Cerebras是產能很低 投資很保守 然後目前都美軍在用
→ : 還有石油國家在用
→ : 他產能和商用需要的規模差太遠了
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 41
作者 waitrop 的最新發文:
- 14F 4推
- 29F 11推 1噓
2026到2030, 大概再三年左右, 1.4兆 下修成 6000億, 也就是原本每年平均4500億 下修成 2000億美元, 其實蠻好的, 不但讓OpenAI 提早盈利賺錢, 也減緩供應端的壓力, …85F 28推 3噓
每個年代都有特定的經濟果實給特定的產業, 你"現在"會覺得台灣的經濟果實大部分都給科技業賺走, 老實說 這說法也算是正確, 畢竟台灣是一個出口導向的國家, 沒什麼內需, 撐起台灣經 …673F 202推 15噓- 27F 11推
點此顯示更多發文記錄
→
guest
回列表(←)
分享

