Cerebras IPO估值266亿美元:与OpenAI的共生联盟如何重塑AI芯片架构

TechCrunch AI May 2026
来源:TechCrunch AI归档:May 2026
Cerebras Systems正以高达266亿美元的估值冲刺里程碑式IPO,其背后是与OpenAI之间异常深厚且相互依赖的合作伙伴关系。AINews深入探究这段关系如何将Cerebras变成全球最具野心AI实验室的事实上的定制硅代工厂,以及这对AI计算未来的意义。

以大胆的晶圆级引擎(WSE)闻名的AI芯片初创公司Cerebras Systems已提交IPO申请,估值可能达到266亿美元。其投资逻辑的核心不仅是技术实力,更是与OpenAI之间异常紧密的共生关系。这远不止是标准的供应商协议:OpenAI对训练和推理算力的无止境需求,已成为推动Cerebras突破WSE架构极限的强制函数;而Cerebras处理大规模稀疏模型的独特能力,则为OpenAI在实时代理和视频生成等低延迟应用中提供了关键优势。AINews的分析揭示,这实际上使Cerebras成为前沿AI实验室的独家硅工坊,这一角色可能重塑AI硬件格局。

技术深度解析

Cerebras的竞争护城河是其晶圆级引擎(WSE),一块餐盘大小的单片硅芯片,集成了整个晶圆上的处理单元。当前一代WSE-3拥有4万亿个晶体管、90万个AI优化核心和44 GB片上SRAM,提供125 petaflops的AI算力。这与NVIDIA采用多个较小芯片(小芯片)通过NVLink等高带宽互连连接的方法根本不同。

关键架构优势在于内存带宽。在GPU集群中,模型权重和激活值必须在独立的HBM内存堆栈和计算芯片之间不断传输,造成所谓的“内存墙”瓶颈。Cerebras通过将所有内存置于同一晶圆上消除了这一问题,实现了每秒21 PB的内存带宽——比同类GPU集群高出数个数量级。这对于稀疏模型尤其有利,因为每次推理步骤中只有一小部分参数处于激活状态。稀疏计算需要不规则的内存访问模式,这会拖垮传统GPU架构,但WSE的细粒度数据流执行模型却能原生处理。

一个关键的技术细节是Cerebras对动态稀疏性的支持。虽然NVIDIA的Ampere和Hopper架构支持结构化稀疏性(2:4模式),但Cerebras允许非结构化稀疏性,这意味着任何权重都可以独立归零。这能在不损失精度的情况下实现更高的压缩比,OpenAI利用这一特性来构建其混合专家(MoE)模型。据信,OpenAI的GPT-4及其后续版本使用了MoE层,每个token仅激活一部分专家。Cerebras的架构能以接近零的延迟开销将token路由到正确的专家,而GPU集群则必须在节点间同步,从而产生通信延迟。

| 指标 | Cerebras WSE-3 | NVIDIA H100 SXM | NVIDIA B200 (Blackwell) |
|---|---|---|---|
| 晶体管数量 | 4万亿 | 800亿 | 2080亿 |
| AI核心 | 900,000 | 18,432个CUDA核心 | 约20,000(估计) |
| 片上内存 | 44 GB SRAM | 80 GB HBM3e | 192 GB HBM3e |
| 内存带宽 | 21 PB/s | 3.35 TB/s | 8 TB/s |
| 稀疏支持 | 非结构化 | 结构化(2:4) | 结构化(2:4) |
| 每芯片功耗 | 约15 kW | 700 W | 1,000 W |
| 训练性能(GPT-3 175B) | 约1.5天 | 约3.5天(1,024块GPU集群) | 约1.2天(1,024块GPU集群) |

数据要点: Cerebras在内存带宽上比H100实现了6,000倍的领先优势,这直接转化为对内存带宽密集型工作负载(如稀疏推理和MoE训练)的卓越性能。然而,WSE-3每芯片的功耗是H100的21倍,使其不太适合分布式、功耗受限的部署场景。

对于开发者而言,开源仓库[Cerebras Model Zoo](https://github.com/Cerebras/modelzoo)(超过2,000颗星)提供了针对WSE优化的GPT、BERT和T5模型的预构建实现。该仓库还包含将PyTorch模型转换为Cerebras的CSL(Cerebras Systems Language)格式的脚本,但学习曲线较为陡峭。

关键参与者与案例研究

Cerebras与OpenAI之间的关系是核心支点。这段关系始于2021年,当时OpenAI需要训练一个庞大的稀疏模型,由于通信开销,这在GPU集群上难以实现。Cerebras提供了CS-2系统,结果令人信服,OpenAI因此成为其锚定客户。如今,OpenAI使用Cerebras系统来训练和推理其最具挑战性的模型,包括GPT-4和传闻中的GPT-5。

OpenAI的CTO Mira Murati曾公开表示,Cerebras的硬件实现了“以前不可能的实验”,尤其是在实时推理和多模态生成领域。例如,Cerebras上的低延迟推理对于OpenAI的实时语音模式和视频生成模型Sora至关重要,后者需要逐帧生成且响应时间低于100毫秒。

其他知名客户包括:
- 劳伦斯利弗莫尔国家实验室:使用Cerebras进行科学计算,包括聚变能模拟。
- 葛兰素史克:部署Cerebras用于药物发现,利用WSE处理大规模分子动力学数据集的能力。
- 阿贡国家实验室:使用Cerebras进行癌症研究和基因组分析。

| 客户 | 使用场景 | 模型规模 | 相比GPU集群的性能提升 |
|---|---|---|---|
| OpenAI | 稀疏MoE训练与推理 | 超过1万亿参数 | 训练速度提升3倍,推理延迟降低5倍 |
| GSK | 分子动力学 | 1000万个分子 | 筛选速度提升10倍 |
| LLNL | 聚变等离子体模拟 | 10亿网格点 | 加速4倍 |

数据要点: 性能提升在稀疏、不规则的工作负载上最为显著。对于密集、小规模的模型,优势会缩小,这就是Cerebras瞄准前沿AI的原因。

更多来自 TechCrunch AI

黄仁勋:AI不是消灭工作,而是在掀起一场全新的劳动力革命在最近一次公开亮相中,英伟达CEO黄仁勋直接挑战了当前普遍存在的焦虑——即AI将使人类劳动变得多余。他认为,这项技术不是工作的终结者,而是史无前例的工作创造者。AINews的分析证实,这并非单纯的企业宣传。AI热潮已经催生了全新的职业——数马斯克午夜威胁曝光:AI开源裂痕背后的生死博弈 | AINews深度埃隆·马斯克发给OpenAI联合创始人萨姆·奥尔特曼和格雷格·布罗克曼的威胁短信,远不止是一位亿万富翁的任性发作。最新法庭文件披露的这些内容,标志着多年来围绕“何为AI进步”这一根本分歧的最终爆发。作为OpenAI最初的捐赠人和董事会成员,AI巨头联手资管公司:企业级AI部署的新剧本AI行业的两大巨头Anthropic和OpenAI,几乎同时宣布与顶级资产管理公司成立合资企业。其目标是通过借用金融行业的信誉、监管专业知识和客户网络,加速企业级AI产品的渗透。这一模式超越了传统的SaaS订阅,转向风险共担、收入分成的结构查看来源专题页TechCrunch AI 已收录 54 篇文章

时间归档

May 2026784 篇已发布文章

延伸阅读

Cerebras 启动 IPO:晶圆级计算能否在 AI 硬件革命中颠覆 GPU 霸权?AI 处理器新贵 Cerebras Systems 已秘密提交首次公开募股申请。此举紧随其与 AWS 达成战略合作,以及获得为 OpenAI 下一代模型提供算力的数十亿美元大单之后。这家以颠覆性晶圆级架构著称的公司,即将在公开市场直面以英伟黄仁勋:AI不是消灭工作,而是在掀起一场全新的劳动力革命英伟达CEO黄仁勋公开驳斥了人工智能将摧毁就业的论调,反而断言AI正在催生一波前所未有的就业浪潮。AINews从基础设施扩张到AI代理与生成式工具的崛起,深度解析这一论断背后的结构性变革。马斯克午夜威胁曝光:AI开源裂痕背后的生死博弈 | AINews深度最新解封的法庭文件显示,埃隆·马斯克在深夜向OpenAI的萨姆·奥尔特曼和格雷格·布罗克曼发出威胁:若拒绝和解,他们将沦为“全美最可恨的人”。这场私人恩怨之下,掩盖着一场关乎人工智能未来的意识形态决战。AI巨头联手资管公司:企业级AI部署的新剧本Anthropic与OpenAI几乎同步宣布与顶级资产管理公司成立合资企业,标志着AI行业从纯模型竞争转向生态驱动的企业销售。借助金融行业的信任与合规基础设施,这一战略旨在攻克企业AI落地的“最后一公里”。

常见问题

这次公司发布“Cerebras IPO at $26.6B: How Its Symbiotic OpenAI Alliance Redefines AI Chip Architecture”主要讲了什么?

Cerebras Systems, the AI chip startup known for its audacious wafer-scale engines (WSE), has filed for an IPO that could value the company at $26.6 billion. The core of its investm…

从“Cerebras IPO valuation vs NVIDIA market cap comparison”看,这家公司的这次发布为什么值得关注?

Cerebras’ competitive moat is its Wafer-Scale Engine (WSE), a single, monolithic silicon die the size of a dinner plate that integrates an entire wafer’s worth of processing elements. The current generation, the WSE-3, p…

围绕“How Cerebras WSE handles sparse MoE models better than GPUs”,这次发布可能带来哪些后续影响?

后续通常要继续观察用户增长、产品渗透率、生态合作、竞品应对以及资本市场和开发者社区的反馈。