Cerebras 启动 IPO:晶圆级计算能否在 AI 硬件革命中颠覆 GPU 霸权?

TechCrunch AI April 2026
来源:TechCrunch AIAI hardware归档:April 2026
AI 处理器新贵 Cerebras Systems 已秘密提交首次公开募股申请。此举紧随其与 AWS 达成战略合作,以及获得为 OpenAI 下一代模型提供算力的数十亿美元大单之后。这家以颠覆性晶圆级架构著称的公司,即将在公开市场直面以英伟达 GPU 为主导的现有范式,迎来终极考验。

Cerebras Systems 已通过秘密提交 IPO 申请,迈出了成为上市公司的决定性一步。这将是首家纯粹的非 GPU AI 硬件公司在公开市场接受价值评估,意义非凡。此次资本运作背后,是两项变革性的商业验证:一是与亚马逊云科技达成战略合作,将其 CS-3 系统集成至云基础设施;二是与 OpenAI 签署了价值数十亿美元的里程碑式协议,为其未来模型开发提供算力。此次 IPO 远不止于融资,它更像是一场全民公投,旨在验证这种一体化的晶圆级芯片方案,能否真正与围绕英伟达 GPU 构建的分布式、大规模并行生态系统分庭抗礼。Cerebras 的核心主张——一块面积堪比餐盘的单一芯片,能否在 AI 算力这场硬仗中,开辟出一条超越传统路径的新战线,答案即将揭晓。

技术深度解析

Cerebras 创新的核心,是对传统半导体经济学的颠覆。数十年来,芯片制造商都将硅晶圆切割成数百个独立裸片,以最大化良率。而由联合创始人兼首席执行官 Andrew Feldman 领导的 Cerebras 反其道而行:它将整个晶圆用作一个单一的计算基板。其当前的旗舰产品 Wafer-Scale Engine 3 采用台积电 5 纳米制程工艺打造,拥有 4 万亿个晶体管、90 万个针对 AI 优化的核心,以及均匀分布在 46,225 平方毫米晶圆表面、容量高达 44 GB 的 SRAM 内存。其片上内存带宽高达每秒 21.8 PB,这正是该系统的超级能力所在,它彻底消除了困扰 GPU 集群的巨大片外内存瓶颈。

该架构专为极致并行性和最低通信延迟而设计。在由数千个 GPU 组成的集群中训练万亿参数模型时,参数及其梯度必须通过高速网络在 GPU 间不断进行分片和同步,这种跨 GPU 通信在时间和能耗上都是主要成本。相比之下,WSE-3 可以将整个模型驻留在其晶圆上的 SRAM 中,所有 90 万个核心都能在单个时钟周期内访问任何参数,从而将分布式计算问题转化为本地化问题。这使得它在训练的前向和反向传播中异常高效,因为权重矩阵密集且操作高度并行。

软件方面,Cerebras 通过其软件平台交付,该平台包含一个图编译器,可自动将标准的 PyTorch 或 TensorFlow 模型并行化到晶圆的各个核心上。展示其软件方法的一个关键开源组件是 `cerebras/modelzoo` GitHub 代码库。该库托管了针对 WSE 优化的流行模型实现,提供了清晰的基准测试和脚本,吸引了大量希望移植模型的研究人员关注,其持续更新也反映了新模型架构和性能优化。

其性能宣称十分大胆。Cerebras 称,单个 CS-3 系统即可从头开始训练一个 1 万亿参数的模型,而同样的任务需要由数千个最新 GPU 组成的集群才能完成。针对大语言模型的特定基准测试,该公司发布的数据显示训练时间大幅缩短。

| 工作负载 | 硬件配置 | 预计训练时间 | 关键限制因素 |
|---|---|---|---|
| Cerebras CS-3 | 1 x WSE-3 | ~1 个月 | 晶圆上 SRAM 容量 |
| GPU 集群 | 1024 x H100 GPU | ~1 个月 | GPU 间通信、内存带宽 |
| GPU 集群 | 2048 x A100 GPU | ~2+ 个月 | GPU 间通信、内存带宽 |

数据解读: 上表揭示了核心的权衡。Cerebras 系统以极其简化的硬件堆栈实现了可比的训练时间——一块晶圆对阵上千个 GPU 及其复杂网络。其限制因素从网络延迟转变为晶圆上的物理 SRAM 容量,而 Cerebras 正通过扩大晶圆尺寸和升级制程节点来应对这一约束。

关键参与者与案例研究

AI 硬件竞技场已非一家独大。虽然英伟占据数据中心 AI 芯片市场超 80% 的份额,但挑战者们正从不同的架构角度发起进攻。

* Cerebras Systems: 本文主角,将全部赌注押在晶圆级集成上,用于训练和大批量推理。其主要案例是 OpenAI。据报道,这份为期多年、价值超千亿美元的协议不仅是销售合同,更是一种共同开发伙伴关系。OpenAI 对通用人工智能的追求需要遵循 scaling laws,而当前的 GPU 集群可能在功耗、散热、同步等方面触及物理极限。Cerebras 提供了一条将整个模型置于一块“芯片”上的路径,这对 OpenAI 最大的前沿模型而言是一个极具吸引力的愿景。与 AWS 的合作 是另一关键支柱,为企业与研究人员提供了基于云的接入途径,使其无需巨额资本支出即可获得 WSE 的算力。
* 英伟达: 行业霸主,凭借其完整的生态系统参与竞争。其战略是在多 GPU 范式内进行渐进式、代际式的改进,近期重点推广 DGX GB200 NVL72——一个将 72 个 GPU 连接成单个逻辑 GPU 的大型液冷机架。英伟达应对内存问题的方法是 HBM3e 和更快的互连技术,而非单片集成。
* Groq: 推理领域的直接竞争者。Groq 的 LPU 是一种确定性的单芯片架构,专注于为 LLM 提供超低延迟的 token 生成。它在新兴的专用推理市场中与 Cerebras 形成竞争。

更多来自 TechCrunch AI

Anthropic与特朗普政府的战略共舞:从供应链风险到AI治理谈判Anthropic与特朗普政府的关系已进入战略务实的新阶段。最初的摩擦源于国防部因其创始人背景及公司“安全第一”理念,将Anthropic列为潜在“供应链风险”。如今,公司领导层与政府官员间已建立起持续且实质性的对话。这一转变反映双方对现实Anthropic的悖论:为何美国一边将AI列为安全风险,一边推动银行测试“Mythos”?美国人工智能战略内部正出现显著的政策分歧。一方面,国防与情报机构的评估——可能源于对Anthropic公司结构、投资者背景或其先进模型训练不透明性的担忧——导致该公司被列入官方供应链风险框架。此类分类通常会触发采购限制和官方疏远姿态。 与Claude的宪法AI如何悄然成为企业级AI开发的隐形标准HumanX大会上的讨论揭示了一场深刻的、全行业的转向。尽管官方议程涵盖多样主题,但走廊交谈、即兴编码会议和初创企业路演都持续将Anthropic的Claude定位为新AI系统的核心构建模块。这一趋势并非由华丽的产品发布驱动,而是源于开发者查看来源专题页TechCrunch AI 已收录 40 篇文章

相关专题

AI hardware20 篇相关文章

时间归档

April 20261680 篇已发布文章

延伸阅读

Rebellions获4亿美元融资:AI推理芯片革命打响,英伟达迎来真正挑战者AI芯片初创公司Rebellions近日完成4亿美元Pre-IPO轮融资,估值飙升至23亿美元。这笔巨额融资不仅是资本市场的认可,更标志着AI硬件竞赛的战略转向:行业焦点正从通用训练芯片,转向专业化、高性价比的推理解决方案。Gimlet Labs软件层破局:在碎片化硬件生态中解锁AI推理效率AI产业正面临一个悖论性瓶颈:模型能力呈指数级进步,底层硬件生态却日益碎片化,导致实际部署效率严重受损。近期获得大额融资的初创公司Gimlet Labs并未选择造芯,而是通过构建精密的软件层,承诺在异构硬件间智能编排AI工作负载,直击行业痛中国AI芯片的三路突围:三大技术路径如何撼动英伟达霸权中国半导体产业正以一套协同的三路战略,向英伟达的AI计算堡垒发起冲击。通过针对通用GPU架构在新兴工作负载下的特定弱点,国内芯片企业正从架构模仿转向场景定义,从根本上重塑全球AI基础设施格局。AMD开源攻势:ROCm与社区代码如何撼动AI硬件霸权一场静默的革命正在重塑AI硬件格局,驱动力并非来自新的芯片突破,而是开源软件的成熟。AMD的GPU曾被视为深度学习领域的利基产品,如今却在大型语言模型推理性能上展现出竞争力,正挑战行业对封闭垂直集成平台的依赖。这一转变有望降低AI算力成本,

常见问题

这次公司发布“Cerebras IPO Tests Wafer-Scale Computing's Future in the AI Hardware Revolution”主要讲了什么?

Cerebras Systems has taken a decisive step toward becoming a publicly traded company with a confidential IPO filing, setting the stage for the most significant public valuation of…

从“Cerebras WSE-3 vs Nvidia H200 benchmark performance”看,这家公司的这次发布为什么值得关注?

At its heart, Cerebras's innovation is a defiance of semiconductor economics. For decades, chipmakers have diced silicon wafers into hundreds of individual dies to maximize yield. Cerebras, led by co-founder and CEO Andr…

围绕“Cerebras AWS pricing cost per hour for CS-3 instance”,这次发布可能带来哪些后续影响?

后续通常要继续观察用户增长、产品渗透率、生态合作、竞品应对以及资本市场和开发者社区的反馈。