※ 本文轉寄自 ptt.cc 更新時間: 2026-02-13 23:10:36
看板 Stock
作者 標題 Re: [新聞] 告別GPU OpenAI推出極速晶圓引擎模型
時間 Fri Feb 13 14:41:06 2026
※ 引述《h0103661 (單推人) 每日換婆 (1/1)》之銘言:
:
: 原文標題:
: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras:
: 原文連結:
: https://www.cerebras.ai/blog/openai-codexspark:
: 發布時間:
: 2026-02-12
:
: 記者署名:
: James Wang
:
: 原文內容:
: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b
: y Cerebras, is available in research preview. This marks the first release in ou
: r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti
: me software development where responsiveness matters as much as intelligence. Po
: wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli
: ng near-instant feedback in live coding environments.
: 今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並
: 開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速
: 度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的
: 強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近
: 乎瞬時的回饋。
: Agentic coding has fundamentally changed software development. For the first tim
: e, machines can autonomously work for hours or days without human supervision. B
: ut this mode of interaction can also leave developers feeling out of the loop wi
: th long wait times and less opportunity to direct the work. As software developm
: ent is iterative, developers need to inject taste, direction, and sensibility al
: ong the way. Codex-Spark is designed for this kind of real-time, iterative work.
: It is fast, responsive, and steerable, putting the developer back in the driver
: ’s seat.
: Codex-Spark is a smaller version of Codex optimized for fast inference. On agent
: ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0,
: it produces more capable responses than GPT-5.1-Codex-mini while completing tas
: ks in a fraction of the time.
: Codex-Spark excels at making precise edits, revising plans, and answering contex
: tual questions about your codebase. It’s a fast way to visualize new layouts, r
: efine styling, and test new interface changes.
: 「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時
: 甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的
: 機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力
: 。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新
: 掌握主導權。
: Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro
: 與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min
: i,且完成任務的時間僅需後者的一小部分。
: Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺
: 化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。
: "Cerebras has been a great engineering partner, and we’re excited about adding
: fast inference as a new platform capability. Bringing wafer-scale compute into p
: roduction gives us a new way to keep Codex responsive for latency-sensitive work
: , and we’re excited to learn from developer feedback on how to compose our comp
: ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria
: l Compute at OpenAI.
: OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很
: 高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏
: 感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算
: 能力整合進流暢的工作流中。」
: Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade
: r goal is to accelerate a wide spectrum of AI workloads across both real-time an
: d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg
: est on-chip memory of any AI processor, enabling high-speed inference at thousan
: ds of tokens per second per user. The architecture scales out to thousands of sy
: stems, extending fast memory capacity into the multi-terabyte domain to support
: trillion-parameter models for both training and inference. We expect to bring th
: is ultra-fast inference capability to the largest frontier models in 2026.
: Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th
: e Codex app, CLI, and VS Code extension, with API access rolling out to select d
: esign partners. Try Codex-Spark rolling out today.
: Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步
: (Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最
: 大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架
: 構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓
: 練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。
: Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C
: ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex
: -Spark。
:
:
: 心得/評論:
:
: 上個月我有發了兩家合作的消息,
: 今天正式推出第一個合作產品,推理速度破千的GPT-5!
: 給大家一個比例尺:平常用的GPT-5速度不到一百。:
: Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算,
: 由於能直接載入整個AI模型到運算單元上,
: 速度是GPU的數十倍,
: 這是Cerebras成立以來第一個企業級應用,
: 或將衝擊整個GPU市場。
:
:
我之前有分析過,
https://www.ptt.cc/bbs/Stock/M.1769589988.A.C87.html
Re: [新聞] OpenAI與硬體供應商Cerebras簽約 - Stock板 - Disp BBS
waitrop bull shit Cerebras Systems 推出尺寸最大晶片,推理速度超過輝達 Blackwell 這款晶片的尺寸是 8.5 英吋(約 22 公分)的巨大方形晶片 一顆晶片比你的書桌還大張
![[圖]](https://disp.cc/img/board/Stock.jpg)
晶片大小是其他GPU/TPU的百倍大小,
一片晶圓wafer 切出一顆,
這會導致良率極低
基本上,
Cerebras有兩個問題: 1. 良率, 2. 相容性(CUDA)
以OpenAI的軟體能力,
相信可以繞過CUDA 的相容性問題,
也就是說,
相信OpenAI 有能力可以把自己的模型移植到Cerebras晶片上運行,
所以對OpenAI+Cerebras而言,
最大的問題就是良率,
以Cerebras的良率跟體量,
不太可能可以吃下所有 ChatGPT Pro 用戶,
1%? 10%? 20%?
不確定能吃下多少的用戶量,
但是對NVDA 影響不大,
2nd solution 的AMD Intel可能就會受到影響
另外,
對於板上的大神與專家們的指教,
我回應幾句話,
我只是用國小數學以及大一基本課本的內容做解釋,
淺顯易懂, 不去賣弄專業,
主要目的是讓大家知道真相,
然後很多大神跟專家對我的提出的觀點,
有很多的指教以及抓錯,
其實,
我也不是笨蛋,
我當然知道我說法的問題,
只是主打一個淺顯易懂, 大方向正確,
這樣說吧!
要是良率可以用之前推文裡說的各種方式解決提高良率,
那為何Intel 三星還在為良率的問題被台積電打趴,
各種提高良率的方式,
都只是小部分的改進,
大方向跟大數字是不會差太多的,
的確,
Cerebras 的良率可能不會到1%那麼慘,
但是絕對絕對是極低良率 極低產量,
要是Cerebras產量夠大,
怎麼沒有大量部署到各大CSP廠,
撇開CUDA相容問題,
就是產量不夠,
而且這麼大的晶片一定是特殊機器特殊規格
然後,
因為Cerebras的良率問題,
所以Cerebras只能選擇台積電,
一樣用國小數學算一算就知道,
Cerebras面積這個大,
吃代工廠良率就更重
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國)
※ 作者: waitrop 2026-02-13 14:41:06
※ 文章代碼(AID): #1fZiU4ks (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1770964868.A.BB6.html
→ : 寫那麼多小作文結果微軟還是沒反彈1F 02/13 14:44
???我沒有買微軟, 我也沒有推微軟
※ 編輯: waitrop (76.103.225.6 美國), 02/13/2026 14:46:07
推 : 感謝W大持續分享,把複雜的事說的業外也看得懂2F 02/13 14:47
推 : 最主要的問題是SRAM很貴3F 02/13 14:48
推 : 會做成那麼大也是因為SRAM的關係
推 : 會做成那麼大也是因為SRAM的關係
→ : 1樓三小啦…….5F 02/13 14:51
推 : 老黃還是破不了2006F 02/13 14:52
推 : 不管到時候用誰的GPU,或者用不用GPU,都是GG代工7F 02/13 14:54
推 : 對AMD/Intel的"晶片"影響可能還沒那麼大8F 02/13 14:59
→ : 這有一定程度是打廣告
→ : 這有一定程度是打廣告
推 : 感謝W大的分享和用心解說10F 02/13 15:02
推 : qqq最近好慘,請問大神對qqq盤那麼久還沒發動有什11F 02/13 15:05
→ : 麼看法嗎QQ
→ : 麼看法嗎QQ
推 : 支持w大的方式 投資向來不保證懂最細最新的人贏13F 02/13 15:08
推 : wait來啦14F 02/13 15:14
推 : 這個大晶圓的不良是內部處理吧?15F 02/13 15:26
→ : 把不良、故障的單元隔離掉就好
→ : 良率應該是90%以上 只要達到出貨標準就可以出貨
→ : 把不良、故障的單元隔離掉就好
→ : 良率應該是90%以上 只要達到出貨標準就可以出貨
推 : Only GG18F 02/13 15:33
噓 : 呵呵19F 02/13 15:36
→ : 以為2這麼簡單阿 他們是軟體公司ok
→ : 以為2這麼簡單阿 他們是軟體公司ok
→ : 結論是不是買台積電就對了?21F 02/13 15:38
推 : 感謝分享22F 02/13 15:42
推 : 大概就是這東西對良率要求很高 也會很貴吧23F 02/13 15:50
推 : 嗯...基本上歐噴醬,近期操作本質都是一直試著找回24F 02/13 16:01
→ : 自己的主導權,但其實內心深處大家越不怕他,歐噴醬
→ : 心裡越怕== 本來chatgpt 一哥,先被Gemini 壓制,然
→ : 後又要被Anthropic追過,其實歐噴醬現在最怕的反而
→ : 是老黃跑去大力幫anthropic,唉,好可憐,歐噴醬科
→ : 技政客組局快極限了嗎,唯一沒有從0開始到千億市值
→ : 的公司ceo,靠著科技政客組局和權力鬥爭看來快到極
→ : 限了,科技發明家從0開始,白手起家經營到七巨頭的
→ : 企業,ceo的還是比較有料,看著猶太屁精這樣真的覺
→ : 得有點可憐==
→ : 自己的主導權,但其實內心深處大家越不怕他,歐噴醬
→ : 心裡越怕== 本來chatgpt 一哥,先被Gemini 壓制,然
→ : 後又要被Anthropic追過,其實歐噴醬現在最怕的反而
→ : 是老黃跑去大力幫anthropic,唉,好可憐,歐噴醬科
→ : 技政客組局快極限了嗎,唯一沒有從0開始到千億市值
→ : 的公司ceo,靠著科技政客組局和權力鬥爭看來快到極
→ : 限了,科技發明家從0開始,白手起家經營到七巨頭的
→ : 企業,ceo的還是比較有料,看著猶太屁精這樣真的覺
→ : 得有點可憐==
→ : GG:這誰能做啊?34F 02/13 16:04
推 : 這顆就是拼超爆量小核,缺陷多到某個程度就不划算惹35F 02/13 16:04
→ : ,能用核變的更少
→ : ,能用核變的更少
→ : 他爬到了一個不屬於他的高度,該均值回歸了,跟 賈37F 02/13 16:05
→ : 伯斯 馬斯克 祖克柏 黃仁勳這些從白手起家經營到現
→ : 在的ceo還是有點差距阿,anthropic 那個ceo達利歐還
→ : 比較像創業家,感覺奧特曼...胸口的光開始閃紅燈快
→ : 要沒光了
→ : 伯斯 馬斯克 祖克柏 黃仁勳這些從白手起家經營到現
→ : 在的ceo還是有點差距阿,anthropic 那個ceo達利歐還
→ : 比較像創業家,感覺奧特曼...胸口的光開始閃紅燈快
→ : 要沒光了
→ : 反倒是一般的晶片,壞的部分遮蔽後還能當次貨賣42F 02/13 16:06
推 : 看好他的猶太血統,但感覺同樣是猶太人,怎麼神力好43F 02/13 16:09
→ : 像還是有差
→ : 像還是有差
推 : Cerebras 用備用核心避開單點故障整片報廢的問題,45F 02/13 16:14
→ : 理論上良率不會差喔,而且他不用CoWoS封裝,理論上
→ : 產能出的來喔,而且速度理論上會比機櫃式solution
→ : 更好,當然,以上都是理論
→ : 理論上良率不會差喔,而且他不用CoWoS封裝,理論上
→ : 產能出的來喔,而且速度理論上會比機櫃式solution
→ : 更好,當然,以上都是理論
推 : 這篇說的正確49F 02/13 16:17
→ : 除了良率 這麼大片光要測試都不知道要搞多久了 成
→ : 本一定高到靠北
→ : 除了良率 這麼大片光要測試都不知道要搞多久了 成
→ : 本一定高到靠北
推 : 都幾年了還頭鐵搞超大晶片真的是不怕死52F 02/13 16:29
推 : 一片晶圓只能產一片晶片,這種肯定要作損害控管分割53F 02/13 16:31
→ : ,切分成數十到百多個區域來剔除不良區,以提升晶片
→ : 可使用程度吧,這東西肯定比GB-200的晶圓總價貴不少
→ : ,切分成數十到百多個區域來剔除不良區,以提升晶片
→ : 可使用程度吧,這東西肯定比GB-200的晶圓總價貴不少
推 : 晶片設計這塊啦 老黃的護城河包含設計技術、客戶關56F 02/13 16:35
→ : 係、產業鏈關係,深不見底,看看全村希望amd 一項沒
→ : 跟上財報就撐不住被華爾街看破手腳,另外自研的那些
→ : 笑話看看就好,孤狗買老黃晶片的力道還比誰都還用力
→ : ,想自己設計,先搞定好台積電產業關係吧== 連社交
→ : 都捨不得來台灣,台積產能當然老黃優先,大家都馬知
→ : 道老黃壟斷晶片業還抓到趨勢,就希望他不要賣這麼貴
→ : 而已,至於台積電在這波的產能更是關鍵中的關鍵==
→ : 係、產業鏈關係,深不見底,看看全村希望amd 一項沒
→ : 跟上財報就撐不住被華爾街看破手腳,另外自研的那些
→ : 笑話看看就好,孤狗買老黃晶片的力道還比誰都還用力
→ : ,想自己設計,先搞定好台積電產業關係吧== 連社交
→ : 都捨不得來台灣,台積產能當然老黃優先,大家都馬知
→ : 道老黃壟斷晶片業還抓到趨勢,就希望他不要賣這麼貴
→ : 而已,至於台積電在這波的產能更是關鍵中的關鍵==
→ : 等孫正義那300億燒完奧特曼就會沒亮燈倒了64F 02/13 16:36
推 : 我也是覺得晶片硬要這麼大頭太鐵,好處就是不用跟老65F 02/13 16:39
→ : 黃搶先進封裝
→ : 黃搶先進封裝
推 : 之前全村希望是什麼,各家自研晶片+博通+amd+intel67F 02/13 16:42
→ : ,取代老黃+台積電壟斷,結果財報出來各各笑話冠軍
→ : ,intel良率大問題,amd營收不理想,博通和amd全都
→ : 離不開台積電,硬要說台積成了這波大贏家,代工出奇
→ : 蹟
→ : ,取代老黃+台積電壟斷,結果財報出來各各笑話冠軍
→ : ,intel良率大問題,amd營收不理想,博通和amd全都
→ : 離不開台積電,硬要說台積成了這波大贏家,代工出奇
→ : 蹟
推 : 感謝分享!!72F 02/13 16:44
→ : 喔至於老黃跟台積的關係相比其他笑話冠軍的自研晶片73F 02/13 16:46
→ : ,不說了,ceo來台灣social沒幾次,產能是搶的贏老
→ : 黃有事沒事就過來social的?然後更好笑七巨頭嘴巴喊
→ : 自研晶片,身體買老黃晶片比誰都用力,資本支出一兩
→ : 千億砸,不是說自研省錢,省得錢?之前那波自研敘事
→ : 財報和指引一出來跟笑話沒兩樣
→ : ,不說了,ceo來台灣social沒幾次,產能是搶的贏老
→ : 黃有事沒事就過來social的?然後更好笑七巨頭嘴巴喊
→ : 自研晶片,身體買老黃晶片比誰都用力,資本支出一兩
→ : 千億砸,不是說自研省錢,省得錢?之前那波自研敘事
→ : 財報和指引一出來跟笑話沒兩樣
推 : 反正在這裡講錯也沒人在乎吧,就繼續亂講就好79F 02/13 16:56
推 : 這種產品類似超級電腦性質 用的起的廠商肯定超少80F 02/13 17:02
→ : 就算成功 產片量一定很低 因為沒人用的起
→ : 就算成功 產片量一定很低 因為沒人用的起
推 : 不會成功的82F 02/13 17:04
→ : 房市產品有套房二房三房四房...豪宅83F 02/13 17:04
→ : 這產品是造鎮甚至建城的等級
→ : 然後不管怎樣 台積電肯定是最大贏家
→ : 這產品是造鎮甚至建城的等級
→ : 然後不管怎樣 台積電肯定是最大贏家
推 : 老黃還是大領先,但矽晶片就是未來5~10年戰略資源86F 02/13 17:08
→ : 從設計到量產到供應鏈關係都是,巨頭不願意擺爛任
→ : 由老黃宰他們。哪怕微軟阿祖兩家起步最晚的,都還
→ : 在投入asic。概念其實有點類似中國現在一邊走私,
→ : 一邊還是積極投入國內自產
→ : openAi最大的問題是沒有巨頭的現金流卻做著巨頭在
→ : 做的事,但它真的熬過去那就不一樣了
→ : 從設計到量產到供應鏈關係都是,巨頭不願意擺爛任
→ : 由老黃宰他們。哪怕微軟阿祖兩家起步最晚的,都還
→ : 在投入asic。概念其實有點類似中國現在一邊走私,
→ : 一邊還是積極投入國內自產
→ : openAi最大的問題是沒有巨頭的現金流卻做著巨頭在
→ : 做的事,但它真的熬過去那就不一樣了
推 : Amd 比較有影響93F 02/13 17:20
→ : 良率 sram 測試 全部都是成本94F 02/13 17:25
→ : 機櫃空間很貴 你能忍受幾個人在一間公司整天睡覺不95F 02/13 17:35
→ : 做事 冷氣還不能繞過他
→ : 做事 冷氣還不能繞過他
推 : 無話可說,感謝W大分享!97F 02/13 17:52
→ : 推淺顯易懂
→ : 推淺顯易懂
→ : https://i.meee.com.tw/DxQ6f9c.jpg99F 02/13 18:03
→ : 前年去聽了下,Cerebras表示他們的設計理念是你本
→ : 來就是要預設裡面的device是fail的,裡面設計了相
→ : 當多的redundancy,當然D0會影響每片的performance
→ : 有差,所以當場與會的主要問他你如何測試與sorting
→ : ?對於每片性能差異你如何建立business model讓客
→ : 戶買單?我自己判斷他采用近存運算主要用途在推論
→ : 效率,所以你也不用擔心他cuda相容。
→ : 前年去聽了下,Cerebras表示他們的設計理念是你本
→ : 來就是要預設裡面的device是fail的,裡面設計了相
→ : 當多的redundancy,當然D0會影響每片的performance
→ : 有差,所以當場與會的主要問他你如何測試與sorting
→ : ?對於每片性能差異你如何建立business model讓客
→ : 戶買單?我自己判斷他采用近存運算主要用途在推論
→ : 效率,所以你也不用擔心他cuda相容。
![[圖]](https://i.meee.com.tw/DxQ6f9c.jpg)
推 : CEREBRAS我一直很疑惑它們為何可以活這麼久107F 02/13 18:19
推 : 難怪散熱又噴~原來是cerebras 帶起來的!108F 02/13 18:49
推 : 好期待open醬被打下去,好興奮109F 02/13 19:08
推 : 謝謝,新年快樂110F 02/13 19:30
推 : Cerebras感覺是比較大顆的cpu,跟CPU裡面有快取、暫111F 02/13 19:31
→ : 存,感覺不會是取代gpu,而是更專業算力分工!
→ : —
→ : 不過gpt 的思考模式倒是有感提升速度,從幾分進化成
→ : 幾秒。
推 : 這樣的速度才爽,以前都等到快睡著
→ : 存,感覺不會是取代gpu,而是更專業算力分工!
→ : —
→ : 不過gpt 的思考模式倒是有感提升速度,從幾分進化成
→ : 幾秒。
推 : 這樣的速度才爽,以前都等到快睡著
推 : 99老黃 99狗狗 霸脫惹117F 02/13 19:38
推 : 剛剛查了一下Gemini 這個推理訓練都能用 初期建置118F 02/13 19:56
→ : 風險過後 很有潛力 https://i.imgur.com/oregYIO.jpeg
→ : 直接和ai 然後再去驗證避免幻覺吧討論
→ : 風險過後 很有潛力 https://i.imgur.com/oregYIO.jpeg
→ : 直接和ai 然後再去驗證避免幻覺吧討論
![[圖]](https://i.imgur.com/oregYIOh.jpeg)
推 : 老黃真的別買 gpu在ai的市場正在萎縮121F 02/13 19:58
推 : 感謝TQ王的分享和苦口婆心解說122F 02/13 21:16
推 : 萎縮??成長趨緩=萎縮?我有看錯嗎123F 02/13 21:27
→ : 頂多沒辦法再每年噴80%
→ : 頂多沒辦法再每年噴80%
→ : 老黃的問題不是公司基本面,是股票市值太大,4.5萬125F 02/13 21:38
→ : 億的市值,噴10%大概要5000億資金灌進去,資金這種
→ : 規模的資金灌給5000億的中小盤股可以噴100%了
→ : 億的市值,噴10%大概要5000億資金灌進去,資金這種
→ : 規模的資金灌給5000億的中小盤股可以噴100%了
推 : 市值大是個問題 但營收開出來你不想買都不行128F 02/13 22:16
→ : 人家就是賺爛了啊
→ : 台積電之前盤了將近一年 最後還是噴
→ : 人家就是賺爛了啊
→ : 台積電之前盤了將近一年 最後還是噴
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 33
作者 waitrop 的最新發文:
: : : : : : : : 我之前有分析過, Cerebras是用大力出奇蹟的方式, 晶片大小是其他GPU/TPU的百倍大小, 一片晶圓wafer 切出一顆, 這會導致良率極低 基本上, Cer …130F 43推 1噓- 21F 14推
- 26F 8推
- 29F 10推
- 19F 6推 2噓
點此顯示更多發文記錄
→
guest
回列表(←)
分享