OpenAI 200亿美元押注Cerebras:一场对英伟达AI芯片霸权的正面宣战

May 2026
OpenAIAI chipsNvidia归档:May 2026
据传OpenAI正与Cerebras Systems敲定一笔价值200亿美元的自定义芯片协议,这笔交易直接将这家初创公司的IPO估值推高至350亿美元。这绝非一纸采购合同,而是一份战略性的宣战书——直指英伟达的GPU垄断地位,标志着AI硬件向专用化架构的根本性转向。

在AI行业短暂的历史中,这或许是最具影响力的硬件交易。据多方消息,OpenAI正与Cerebras Systems敲定一笔价值200亿美元的自定义芯片协议,以多年期承诺采购其晶圆级处理器。这笔巨额订单直接推动Cerebras以惊人的350亿美元估值提交IPO申请,定价预计本周完成。AINews从行业内部获悉,这并非简单的采购订单,而是一次深度的联合工程合作。OpenAI领导层对英伟达的供应限制以及训练日益庞大模型所带来的能源成本飙升感到不满,因此押注Cerebras激进的晶圆级架构,将其视为解锁下一代AI——包括世界模型、视频生成和自主系统——的关键。这笔交易不仅重塑了AI芯片市场的竞争格局,更意味着算力主权从通用GPU向专用硬件的历史性转移。

技术深度解析

这笔交易的核心是一场根本性的架构分野。英伟达的H100和B200 GPU源自图形处理器,专为并行浮点运算设计,却受困于冯·诺依曼瓶颈——数据在内存与计算单元之间不断穿梭。Cerebras的WSE-3(晶圆级引擎3)通过将计算与内存集成在一块巨大的46,225 mm²硅晶圆上,彻底消除了这一瓶颈。这不是小芯片(chiplet),而是一整块连续的硅片,拥有4万亿个晶体管、90万个AI优化核心和44 GB的片上SRAM。关键在于内存带宽:英伟达B200的内存带宽约为8 TB/s,而WSE-3的片上带宽超过21 PB/s。对于训练大型语言模型(LLM)和视频扩散模型而言——注意力机制需要持续访问KV缓存和中间激活值——这一带宽优势直接转化为更快的训练周期和更低的推理延迟。WSE-3还采用了一种名为Swarm的独特2D网格互连,允许任何核心在一个时钟周期内与其他核心通信,从而避免了GPU集群依赖的复杂且耗电的外部互连(NVLink、InfiniBand)。

基准数据:Cerebras WSE-3 vs. 英伟达 B200(估算)

| 指标 | Cerebras WSE-3 | 英伟达 B200 |
|---|---|---|
| 晶体管数量 | 4万亿 | 2080亿 |
| AI核心数 | 90万 | ~2万(CUDA + Tensor) |
| 片上/封装内存 | 44 GB SRAM | 192 GB HBM3e |
| 内存带宽 | 21 PB/s | 8 TB/s |
| 互连架构 | Swarm(片上) | NVLink 5(外部) |
| 单系统功耗 | ~23 kW(CS-3) | ~1 kW(单GPU) |
| 训练速度(GPT-3 175B) | ~1天(估算) | ~3-4天(集群) |

数据要点: WSE-3的片上内存带宽是B200的HBM带宽的2600倍以上。虽然原始FLOPS对比复杂,但对于稀疏注意力(sparse attention)和混合专家模型(MoE)路由这类内存密集型操作,Cerebras架构提供了无法通过简单增加GPU数量来复制的决定性优势。

对于开发者而言,相关的开源生态系统正在演进。Cerebras维护着一个名为`cerebras-modelzoo`的GitHub仓库(超过1200颗星),其中提供了针对WSE架构优化的GPT、BERT和T5模型的参考实现。关键区别在于软件栈:Cerebras的编译器自动将模型图映射到晶圆的2D网格上,在硬件层面处理数据并行和流水线并行。这与英伟达的CUDA形成鲜明对比——在CUDA中,开发者必须手动管理内存传输和内核启动。对于OpenAI——其正在推动拥有10万亿以上参数的模型——这种硬件级并行性可能意味着6个月训练周期与2个月训练周期之间的差距。

关键参与者与案例研究

OpenAI的战略算盘: 这并非OpenAI首次涉足定制芯片。该公司一直在悄悄组建一支由前Google TPU工程师领导的芯片团队,但内部进展缓慢。与Cerebras的交易是一条务实的捷径。以Sam Altman为首的OpenAI领导层曾公开表示,算力就是新时代的石油。这笔200亿美元的承诺本质上是对算力主权的首付。通过锁定Cerebras未来产能的相当大一部分,OpenAI使自己免受英伟达分配波动和涨价的冲击。这对于OpenAI传闻中的“Strawberry”和“Orion”模型尤为关键——据说这些模型所需的算力是GPT-4的10倍。

Cerebras的长期棋局: Cerebras由Andrew Feldman(CEO)于2015年创立,一直是一个逆向押注。当行业纷纷转向小芯片和中介层时,Cerebras加倍押注于单片晶圆级集成。该公司已在阿贡国家实验室、葛兰素史克和梅奥诊所部署了系统,用于药物发现和医学影像。然而,这些只是研究部署。与OpenAI的交易是其首个真正的超大规模商业胜利。350亿美元的IPO估值颇为激进——Cerebras已通过风险投资筹集了约15亿美元——但这反映了市场对那些能够挑战英伟达的AI基础设施公司所赋予的溢价。

竞争格局:定制芯片之战

| 公司 | 芯片 | 架构 | 关键客户 | 状态 |
|---|---|---|---|---|
| 英伟达 | B200 | GPU + HBM | 所有人 | 已出货 |
| Cerebras | WSE-3 | 晶圆级 | OpenAI(据传) | 已出货 |
| AMD | MI300X | GPU + HBM | 微软、Meta | 已出货 |
| Google | TPU v5p | 脉动阵列 | Google(内部) | 已出货 |
| Amazon | Trainium 2 | 定制ASIC | Amazon(内部) | 已出货 |
| Groq | LPU | 张量流处理 | 企业客户 | 已出货 |
| d-Matrix | Corsair | 存内计算 | 早期访问 | 预生产 |

数据要点: 这张表格揭示了一个碎片化的市场,其中每家主要云提供商都在构建定制芯片。英伟达凭借其成熟的生态系统和通用性仍占据主导地位,但Cerebras与OpenAI的联盟可能成为打破其垄断的转折点。对于开发者而言,这意味着未来将面临更多样化的硬件选择,但同时也需要适应不同的编程模型和优化策略。

相关专题

OpenAI109 篇相关文章AI chips18 篇相关文章Nvidia30 篇相关文章

时间归档

May 20261212 篇已发布文章

延伸阅读

Token经济学:英伟达如何重写AI基础设施的价值规则英伟达正在悄然重新定义行业衡量AI基础设施价值的方式。随着推理工作负载超越训练,关键指标不再是峰值FLOPs或GPU数量——而是每个Token的成本。这一转变将决定谁能在AI浪潮中获利,谁将被淘汰。GPT-5.5悄然上线:英伟达工程师称其为“认知义肢”OpenAI在无预警情况下部署了GPT-5.5,而英伟达内部工程师的反馈令人震惊:失去该模型访问权限的感觉“如同截肢”。AINews深入解析其技术架构、从工具到认知义肢的转变,以及AI依赖性的未来走向。黄仁勋重新定义AGI:十亿程序员即集体智能,点燃基础设施军备竞赛英伟达CEO黄仁勋从根本上重构了关于AGI的讨论,宣称其并非以单一意识体形态降临,而是由超十亿程序员经AI赋能后涌现的集体智能。这一战略叙事转向,将行业焦点从理论基准转向构建全球计算与架构基础的紧迫实践挑战。英伟达的Anthropic豪赌:黄仁勋的直供AI战略能否击败云巨头?英伟达CEO黄仁勋已向传统云模式宣战,将公司定位为AWS、Azure和Google Cloud的直接竞争者,而非供应商。本文剖析英伟达以与Anthropic深度合作为锚点的激进战略转向,并评估其CUDA生态能否抵挡住全球最大科技公司的反击。

常见问题

这起“OpenAI's $20B Cerebras Bet: A Direct Challenge to Nvidia's AI Chip Dominance”融资事件讲了什么?

In what may be the most consequential hardware deal in the AI industry's short history, OpenAI is reportedly finalizing a $20 billion custom chip agreement with Cerebras Systems. T…

从“How does Cerebras wafer-scale architecture compare to Nvidia GPU clusters for training large language models?”看,为什么这笔融资值得关注?

At the heart of this deal is a fundamental architectural schism. Nvidia's H100 and B200 GPUs are descendants of graphics processors, designed for parallel floating-point operations but constrained by the von Neumann bott…

这起融资事件在“What are the risks of OpenAI's $20 billion dependency on a single chip supplier?”上释放了什么行业信号?

它通常意味着该赛道正在进入资源加速集聚期,后续值得继续关注团队扩张、产品落地、商业化验证和同类公司跟进。