※ 本文轉寄自 ptt.cc 更新時間: 2026-02-13 14:15:03
看板 Stock
作者 標題 [新聞] 告別GPU OpenAI推出極速晶圓引擎模型
時間 Fri Feb 13 11:13:53 2026
原文標題:
Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras
原文連結:
https://www.cerebras.ai/blog/openai-codexspark
Cerebras
Cerebras is the go-to platform for fast and effortless AI training. Learn more at cerebras.ai. ...
Cerebras is the go-to platform for fast and effortless AI training. Learn more at cerebras.ai. ...
發布時間:
2026-02-12
記者署名:
James Wang
原文內容:
Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b
y Cerebras, is available in research preview. This marks the first release in ou
r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti
me software development where responsiveness matters as much as intelligence. Po
wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli
ng near-instant feedback in live coding environments.
今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並
開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速
度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的
強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近
乎瞬時的回饋。
開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速
度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的
強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近
乎瞬時的回饋。
Agentic coding has fundamentally changed software development. For the first tim
e, machines can autonomously work for hours or days without human supervision. B
ut this mode of interaction can also leave developers feeling out of the loop wi
th long wait times and less opportunity to direct the work. As software developm
ent is iterative, developers need to inject taste, direction, and sensibility al
ong the way. Codex-Spark is designed for this kind of real-time, iterative work.
It is fast, responsive, and steerable, putting the developer back in the driver
’s seat.
Codex-Spark is a smaller version of Codex optimized for fast inference. On agent
ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0,
it produces more capable responses than GPT-5.1-Codex-mini while completing tas
ks in a fraction of the time.
Codex-Spark excels at making precise edits, revising plans, and answering contex
tual questions about your codebase. It’s a fast way to visualize new layouts, r
efine styling, and test new interface changes.
「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時
甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的
機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力
。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新
掌握主導權。
甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的
機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力
。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新
掌握主導權。
Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro
與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min
i,且完成任務的時間僅需後者的一小部分。
Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺
化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。
"Cerebras has been a great engineering partner, and we’re excited about adding
fast inference as a new platform capability. Bringing wafer-scale compute into p
roduction gives us a new way to keep Codex responsive for latency-sensitive work
, and we’re excited to learn from developer feedback on how to compose our comp
ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria
l Compute at OpenAI.
OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很
高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏
感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算
能力整合進流暢的工作流中。」
高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏
感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算
能力整合進流暢的工作流中。」
Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade
r goal is to accelerate a wide spectrum of AI workloads across both real-time an
d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg
est on-chip memory of any AI processor, enabling high-speed inference at thousan
ds of tokens per second per user. The architecture scales out to thousands of sy
stems, extending fast memory capacity into the multi-terabyte domain to support
trillion-parameter models for both training and inference. We expect to bring th
is ultra-fast inference capability to the largest frontier models in 2026.
Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th
e Codex app, CLI, and VS Code extension, with API access rolling out to select d
esign partners. Try Codex-Spark rolling out today.
Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步
(Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最
大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架
構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓
練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。
(Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最
大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架
構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓
練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。
Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C
ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex
-Spark。
心得/評論:
上個月我有發了兩家合作的消息,
今天正式推出第一個合作產品,推理速度破千的GPT-5!
給大家一個比例尺:平常用的GPT-5速度不到一百。
Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算,
由於能直接載入整個AI模型到運算單元上,
速度是GPU的數十倍,
這是Cerebras成立以來第一個企業級應用,
或將衝擊整個GPU市場。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.79.16.163 (臺灣)
※ 作者: h0103661 2026-02-13 11:13:53
※ 文章代碼(AID): #1fZfRtzM (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1770952439.A.F56.html
推 : 台積電噴1F 02/13 11:16
推 : 都不用gpu NV要涼了2F 02/13 11:16
推 : 還是要台積電...3F 02/13 11:17
推 : 會不會有人不玩了?….4F 02/13 11:18
推 : 關鍵字 台積電5F 02/13 11:18
推 : 這超大威化餅真的能吃啊...?太厲害了6F 02/13 11:19
→ : 又是台積電7F 02/13 11:19
→ : GG噴 NV哭8F 02/13 11:20
推 : 沒人在乎9F 02/13 11:20
推 : GPU需求下修? GPU市場要被衝擊了?10F 02/13 11:20
→ : 黃爸直接砸錢買下來掐死你11F 02/13 11:21
推 : NV 8812F 02/13 11:22
推 : 能訓練再來說取代gpu 都幾年了還在亂下標 不專業13F 02/13 11:23
→ : 還是要台積 結案14F 02/13 11:24
推 : 推論跟訓練本來尋求就不一樣15F 02/13 11:24
推 : 老黃:我不投資你就扯我後腿?16F 02/13 11:24
→ : 跟去年說Deepseek 會終結運算需求一樣的知識水準17F 02/13 11:24
推 : 台積電18F 02/13 11:28
→ : xddd 啥都要扯到台積電 2330真的無腦多
→ : xddd 啥都要扯到台積電 2330真的無腦多
→ : GPU is over!20F 02/13 11:28
推 : 沒人在乎21F 02/13 11:28
推 : 又又又又又要被取代了22F 02/13 11:29
→ : 看成曲速引擎 想說有曲速AI引擎都出來了還不飛天23F 02/13 11:29
推 : 誰代工?24F 02/13 11:30
推 : 誰用鏟子 鏟子是什麼形狀 不重要25F 02/13 11:31
推 : 黃老爺要哭了26F 02/13 11:33
推 : 台積電又噴27F 02/13 11:33
推 : 滿庫存的GPU沒電力用?投放廣告?28F 02/13 11:33
推 : 亂下標才有高能兒看啊 嘻嘻29F 02/13 11:35
→ : 管你多快,沒電都算庫存30F 02/13 11:36
→ : cpu藥丸惹 gpu藥丸惹 tpu藥丸惹31F 02/13 11:36
推 : 超巨大那個嗎? 成本很高的說32F 02/13 11:36
推 : 算這麼快 CPO該噴了吧33F 02/13 11:38
推 : 蛋雕34F 02/13 11:40
推 : 難怪老黃說1000億投資沒有確定 果然被骨仔35F 02/13 11:41
推 : OAI還有錢喔 嘻嘻36F 02/13 11:41
推 : 台雞雞受惠 ? 封裝測試也會受惠 ?37F 02/13 11:41
推 : 又是台積電代工,賣鏟子怎麼輸阿38F 02/13 11:42
推 : NV掰39F 02/13 11:42
→ : 美股不歡迎太快的40F 02/13 11:45
推 : AI大廠都想要逃離NV41F 02/13 11:47
推 : 一次整片的 成本和產量.....42F 02/13 11:48
推 : 其實真的要整片的話,我一直不懂真正獨家在哪裡?43F 02/13 11:48
→ : 最困難的技術不是其實是台積嗎
→ : 設計部分困難的點在哪?其他公司無法設計嗎?
→ : 不是其實都是依賴台積的良率?
→ : 最困難的技術不是其實是台積嗎
→ : 設計部分困難的點在哪?其他公司無法設計嗎?
→ : 不是其實都是依賴台積的良率?
→ : NV is over47F 02/13 11:51
噓 : 老黃這輩子就這樣惹48F 02/13 11:52
推 : 鏟子49F 02/13 11:52
→ : 整片最難的部份台積包了,有凱子付錢能做就做50F 02/13 11:52
推 : 之前很少人 敢搞這種專武等級的產品51F 02/13 11:53
推 : 聽不懂 晶圓級引擎是什麼意思52F 02/13 11:56
推 : 直接用晶圓跑啊 真的假的53F 02/13 11:56
推 : 三星五奈米也搶不到?54F 02/13 11:57
→ : 就說了會走BTC的路 顯卡之後就是專用礦機的概念55F 02/13 11:58
→ : 顯卡終究只是過度的產品 需求上來就需要專門的
→ : 顯卡終究只是過度的產品 需求上來就需要專門的
推 : 這篇需要翻譯翻譯,晶圓引擎是啥?用整片晶圓把GPT57F 02/13 11:59
→ : 硬體化嗎?
→ : 硬體化嗎?
推 : 察Cerebras就有相關說明了59F 02/13 12:02
→ : 之前的關鍵字是 44GB on-chip SRAM
→ : 之前的關鍵字是 44GB on-chip SRAM
Product - Chip - Cerebras
Meet the Cerebras Wafer-Scale Engine—the world’s largest AI processor. Train deep learning models faster, with lower power consumption and industry-le ...
Meet the Cerebras Wafer-Scale Engine—the world’s largest AI processor. Train deep learning models faster, with lower power consumption and industry-le ...
噓 : 99老黃 快死了62F 02/13 12:03
推 : 他就WSE-3超小核 佈滿整塊63F 02/13 12:06
推 : 台積電噴噴噴噴噴64F 02/13 12:07
推 : 那就是雞雞5nm + 更多記憶卡蛙65F 02/13 12:08
→ : 好了啦 奧特曼 沒人相信你66F 02/13 12:08
推 : GPU IS OVER?67F 02/13 12:08
推 : 以後做出來的晶片不會是圓形吧 跟晶圓一樣大 完全不68F 02/13 12:08
→ : 浪費
→ : 浪費
推 : gpu太貴了70F 02/13 12:08
→ : 這東東真的紅的話就肯定是gg的單,沒法跑71F 02/13 12:08
→ : 直接載入整個AI模型 所以關鍵是記憶體?72F 02/13 12:09
→ : 人家直接用SRAM 粗本的73F 02/13 12:09
→ : NV要幾根74F 02/13 12:09
→ : 我是覺得產能很受限啦 除非你早早下很大單等著75F 02/13 12:10
→ : TSM 322仙人指路76F 02/13 12:11
推 : 老黃掰掰77F 02/13 12:12
→ : 問一下 那gpu可以也套用這種晶圓級記憶體模式嗎 反78F 02/13 12:12
→ : 正記憶體越多越快越好
→ : 正記憶體越多越快越好
推 : NV之前不是收購GROQ? 看何時把LPU整合入GPU80F 02/13 12:12
→ : 台G利空 高價GPU換低價RISC81F 02/13 12:12
推 : 台積但不是2奈米 要出大事了82F 02/13 12:13
推 : 三星5nm良率有沒有上來?有ㄉ話GG就GG懶83F 02/13 12:13
推 : 輝達要蛋雕了嗎84F 02/13 12:14
噓 : 回答快但答案垃圾有什麼用85F 02/13 12:14
推 : 蛤?所以只是記憶體反應速度?sram 不是本來就反應86F 02/13 12:14
→ : 快嗎
→ : 快嗎
推 : 關鍵字:台積88F 02/13 12:15
推 : 這怎麼可能對NV有啥重大影響啦……89F 02/13 12:15
推 : 架構不一樣 H100 die size 814 WSE-3 4622590F 02/13 12:15
推 : 出什麼大事 舊產能再利用xddd 省capex 噴爛91F 02/13 12:15
推 : WSE-3ㄉ話 5nm就夠ㄌ92F 02/13 12:15
→ : 五奈米廠折舊早攤完了 純純的利潤像大海一樣啊93F 02/13 12:16
推 : 全世界股民都要買台積電了94F 02/13 12:16
→ : 三星5nm良率有上來ㄉ話 吃得到95F 02/13 12:16
推 : 這跟GOOGLE那個TPU同概念? 不過做鏟子的鐵都2330的96F 02/13 12:16
→ : GPU 小片 配合HBM去做 這個就是一體機97F 02/13 12:16
推 : 輝達哭哭 台積二奈米可能要少訂單還不出大事哦 有98F 02/13 12:17
→ : 腦嗎?
→ : 腦嗎?
→ : 100x-defect-tolerance-how-cerebras-solved-the-yi100F 02/13 12:17
→ : eld-problem 良率夠高 壞點爆掉的小核夠少
→ : eld-problem 良率夠高 壞點爆掉的小核夠少
推 : 產能都被NV包了,這晶片找誰做?102F 02/13 12:18
推 : GG還有產能嗎103F 02/13 12:19
→ : 理論上就能做 該文寫得很淺白104F 02/13 12:19
推 : 不管幾奈米廠商都會想辦法讓自己的產品可以用台積105F 02/13 12:19
→ : 電做的晶片,All in 2330跟TSM就對了。
→ : 電做的晶片,All in 2330跟TSM就對了。
→ : 全部做在一片上理論上更快吧?107F 02/13 12:19
推 : 下5nm又不走先進封裝還好啦,只是聽說這東東很難做108F 02/13 12:20
推 : 5奈米三星已經可以低價搶單了109F 02/13 12:20
→ : SM的核心 和WSE-3核心大小不一樣 同樣的壞點率110F 02/13 12:20
推 : 看來就是計算晶片生產門檻降低 記憶體需求增加111F 02/13 12:20
→ : 你得到整體可用面積不同112F 02/13 12:21
推 : 這種晶片怎麼可能說做就做得出來113F 02/13 12:25
推 : 整片晶圓發熱量,也挺驚人114F 02/13 12:26
推 : 封裝也是個問題 也太大115F 02/13 12:27
→ : 這家真的有人用喔 厲害了116F 02/13 12:28
推 : 老黃買下來就又少個對手了117F 02/13 12:29
推 : 台積又要噴 出關目標價2330118F 02/13 12:29
推 : 要gpt用平鋪直敘的方式解說。回答因為現行LLM運算是119F 02/13 12:32
→ : 在多張gpu跟gpu之間一直把資料搬來搬去。這種直接大
→ : 晶圓可以省去搬運時間。壞點問題就在硬體層面繞過去
→ : 不要用。
→ : 在多張gpu跟gpu之間一直把資料搬來搬去。這種直接大
→ : 晶圓可以省去搬運時間。壞點問題就在硬體層面繞過去
→ : 不要用。
推 : 黃藥丸!123F 02/13 12:35
推 : 抄goog?124F 02/13 12:39
推 : 順便問了發熱量。回答說跟gpu是高頻小面積需要強散125F 02/13 12:44
→ : 熱,它是低頻跟大面積,後面直接做液冷微流道帶走熱
→ : 。在LLM上每token產生的焦耳數更低。
→ : 熱,它是低頻跟大面積,後面直接做液冷微流道帶走熱
→ : 。在LLM上每token產生的焦耳數更低。
推 : NV涼了128F 02/13 12:44
→ : 5奈米對台積電沒有太大優勢,看量了
→ : 這條路走得通,對岸也看到光XD
→ : 5奈米對台積電沒有太大優勢,看量了
→ : 這條路走得通,對岸也看到光XD
推 : 5奈米應該只是現階段吧,軍備競賽沒理由不往更高密131F 02/13 12:46
→ : 度推
→ : 度推
推 : 中芯去做 應該會哭出來133F 02/13 12:46
→ : pass, 文組可能比較喜歡134F 02/13 12:47
推 : 需要啥硬體,大家應該比較關心這個135F 02/13 12:50
→ : 用2奈米做會n次方快嗎136F 02/13 12:54
推 : Open AI 就是差評137F 02/13 12:55
推 : 好險還有台積,但我的alphabet是不是下去了138F 02/13 13:03
推 : 孫正義那300億看來撐不到2027了139F 02/13 13:07
推 : 硬體回答說只有GG 三星 INTEL有能力。但只有GG有跟140F 02/13 13:08
→ : 它們完成前面兩代的經驗。所以還是GG的天下
→ : 它們完成前面兩代的經驗。所以還是GG的天下
推 : 看產量吧,量少只能當專武用142F 02/13 13:15
推 : 甲骨文:幹 要呷骨了143F 02/13 13:16
→ : 從燒錢跑道換到另一個燒錢跑道144F 02/13 13:19
→ : 老黃6090賣五萬我就原諒你145F 02/13 13:21
推 : 取代不了 因為這個超級貴146F 02/13 13:23
→ : 太太太 咦 五奈米147F 02/13 13:23
推 : 反正繼續噴148F 02/13 13:26
推 : openai就是不長進,gemini 聰明又博學149F 02/13 13:29
推 : 2330:你們打完叫我150F 02/13 13:30
→ : 問啥大家不看好這架構 不是很符合AI發展的需求嗎151F 02/13 13:31
→ : 良率問題可能也被GG解決了
→ : 良率問題可能也被GG解決了
推 : 因為很貴153F 02/13 13:35
推 : 整天叫,去空nv阿154F 02/13 13:38
→ : 先搶的到產能再說155F 02/13 13:41
推 : 2奈米輝達不用亞麻要搶喔 你敢退單嗎156F 02/13 13:55
→ : 想太多 現在2奈米廠商排隊搶 輝達寧可捏著也不願意
→ : 退單
推 : 亞麻T4晶片現在擠不進去單 你敢退亞麻直接塞進來
→ : 想太多 現在2奈米廠商排隊搶 輝達寧可捏著也不願意
→ : 退單
推 : 亞麻T4晶片現在擠不進去單 你敢退亞麻直接塞進來
推 : 先不論成品,這個問題是本來整片晶圓就算良率低還是160F 02/13 14:02
→ : 可以做,那這個一整片的,良率需要多少?
→ : 可以做,那這個一整片的,良率需要多少?
→ : 藥丸162F 02/13 14:06
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 4 累積人氣: 170
作者 h0103661 的最新發文:
- Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b y Cerebras, is availa …39F 29推
We are launching GLM-5, targeting complex systems engineering and long-horizon a gentic tasks. Scali …228F 119推 17噓- 38F 15推
- 12F 4推
- 13F 10推
點此顯示更多發文記錄
→
guest
回列表(←)
分享
