阿里腾讯竞相押注DeepSeek:一场关于AI未来基础设施的暗战

April 2026
DeepSeekopen source AIlarge language model归档:April 2026
阿里巴巴与腾讯两大巨头同时投资AI初创公司DeepSeek,标志着中国科技界正围绕高效、开源的大语言模型展开一场战略竞速。这绝非简单的财务押注,而是一场争夺下一代AI基础设施与应用生态控制权的关键博弈。

在中国AI竞争的白热化熔炉中,DeepSeek已成为最炙手可热的初创公司,同时吸引了科技巨头阿里巴巴和腾讯的投资兴趣。这远非简单的投资组合多元化操作。其核心在于,DeepSeek实现了许多人认为不可能的事情:在仅使用极低计算成本的情况下,交付了能与GPT-4和Claude 3.5等前沿系统相媲美的模型性能。通过率先采用混合专家(MoE)架构并积极开源其模型,DeepSeek建立了一条技术加社区驱动的护城河,这有可能颠覆现有巨头所推崇的集中式、专有模型范式。对于阿里巴巴和腾讯而言,投资DeepSeek是一种双重动机策略:既是防御性举措,防止被竞争对手甩开;也是进攻性布局,以获取新一代AI能力。这场投资竞赛不仅关乎资金,更关乎谁能将DeepSeek的高效模型深度整合进自身的云服务、社交生态和商业应用中,从而在下一波AI浪潮中占据有利地形。

技术深度解析

DeepSeek的技术突破核心在于其对混合专家(MoE)架构的高效运用。这种设计仅针对任何给定输入激活模型参数的一个子集。虽然像GPT-4这样的模型也被认为使用了MoE,但DeepSeek通过其DeepSeek-V2和V3系列将这种方法推向了极致。关键的创新在于一种新颖的注意力机制和负载均衡策略,这使得模型在拥有巨大总参数量(例如,671B总参数)的同时,每个token的活跃参数保持相对较低(约37B)。这直接转化为大幅降低的推理成本——据报道,其API每百万token的成本低至0.14美元,而可比专有模型的价格则为2.50美元或更高。

从工程角度来看,DeepSeek的训练流程也值得关注。该团队发布了关于其训练基础设施的详细技术报告,包括使用FP8混合精度训练和优化的通信协议,使其能够在2048块NVIDIA H800 GPU集群上进行训练,并实现近乎线性的扩展效率。考虑到在数千个加速器上进行分布式训练的众所周知挑战,这是一项重大成就。开源社区对此反应热烈;GitHub上的`deepseek-ai/DeepSeek-V2`仓库已获得超过15,000颗星,衍生微调模型也迅速涌现。该架构的高效性使其特别适合设备端和边缘部署,而这是更大、更密集模型难以企及的领域。

| 模型 | 总参数量 | 活跃参数量 | MMLU得分 | 推理成本(每百万token) |
|---|---|---|---|---|
| DeepSeek-V2 | 671B | 37B | 78.5 | $0.14 |
| GPT-4 Turbo | ~1.7T(估计) | ~200B(估计) | 86.4 | $10.00 |
| Claude 3.5 Sonnet | — | — | 88.3 | $3.00 |
| Llama 3.1 405B | 405B | 405B | 87.3 | $2.50 |

数据要点: DeepSeek-V2的MMLU得分与最佳专有模型相差不到10分,但每个token的成本却比GPT-4 Turbo低70倍以上。这种成本-性能比是引发投资狂潮的核心技术理由。

关键玩家与案例研究

这场投资竞赛体现了阿里巴巴和腾讯两种截然不同的战略路径。阿里巴巴通过其云部门(阿里云)一直在积极构建自己的专有模型系列Qwen。Qwen2-72B模型具有竞争力,但阿里巴巴认识到没有任何单一模型能主导所有垂直领域。通过投资DeepSeek,阿里巴巴获得了一个互补的、高效的模型,可以其云平台上作为低成本替代方案提供,尤其适合对价格敏感的SME。这类似于亚马逊的策略,即在AWS上既提供自己的Titan模型,也托管Anthropic的Claude等第三方模型。

腾讯的考量则不同。腾讯的核心优势在于其庞大的社交和游戏生态系统(微信、QQ、王者荣耀)。该公司在发布旗舰基础模型方面较为迟缓,而是专注于应用层集成。投资DeepSeek使腾讯能够直接获得一个最先进的模型,该模型可以针对微信小程序生态系统、客服机器人和内容推荐进行微调。DeepSeek的高效性在此至关重要:为数十亿微信用户大规模运行一个671B参数的模型,如果使用密集模型将成本高昂得令人望而却步,但DeepSeek的MoE架构使其在经济上变得可行。

| 投资者 | 核心业务 | 投资DeepSeek的战略目标 | 竞争模型 |
|---|---|---|---|
| 阿里巴巴 | 云计算、电商 | 提供低成本的云端AI推理,与AWS竞争 | Qwen2-72B |
| 腾讯 | 社交、游戏、支付 | 集成到微信生态系统,实现实时AI功能 | Hunyuan(内部) |
| 字节跳动 | 社交(抖音)、内容 | 未投资;依赖内部'Doubao'模型 | Doubao |

数据要点: 该表格揭示了一个清晰的模式:没有主导基础模型的公司(如腾讯)正在通过投资追赶,而拥有强大内部模型的公司(如阿里巴巴)则通过投资进行对冲并扩展其云服务。字节跳动的缺席值得注意,表明其认为内部模型已足够。

行业影响与市场动态

DeepSeek投资浪潮正以三种深远的方式重塑中国的AI格局。首先,它正在加速大语言模型的商品化。DeepSeek的开源发布和低成本API正迫使所有竞争对手——包括百度的ERNIE、商汤科技的SenseNova,甚至阿里巴巴的Qwen——大幅降价。在过去六个月中,中国的API推理成本下降了超过80%,直接惠及下游应用开发者。

其次,它正在将重心从模型性能转向模型效率。叙事焦点不再是“谁的模型最聪明”,而是“谁能以每美元成本提供最多的智能”。这有利于像DeepSeek这样的初创公司,它们天生就为效率而设计。对于投资者而言,这意味着AI领域的估值指标正在发生变化:拥有最高效推理引擎的公司,而非仅仅是最大参数量的公司,将获得溢价。

第三,它正在催化一个更开放、更具协作性的AI生态系统。DeepSeek的开源理念与许多中国科技公司历史上偏爱的围墙花园模式形成了鲜明对比。通过证明开源模型可以在商业上可行且技术领先,DeepSeek正在鼓励一波新的AI创业公司采用类似策略。这可能导致一个更加多元化的AI格局,其中专有模型和开源模型共存并相互竞争,最终使整个生态系统更具韧性。

未来展望与战略预测

展望未来,DeepSeek的投资热潮可能会引发几个关键发展。首先,我们可能会看到阿里巴巴和腾讯之间为争夺DeepSeek董事会席位或独家合作伙伴关系而展开的竞标战。考虑到两家公司的战略利益,DeepSeek很可能会保持独立,同时与双方都建立合作关系,类似于红杉资本同时投资多家竞争性初创公司的做法。

其次,DeepSeek的MoE架构可能会成为行业标准,促使其他模型提供商——包括百度、商汤科技,甚至国际参与者——加速自己的MoE研发。这可能导致AI硬件设计的转变,因为像NVIDIA这样的芯片制造商可能会优化其GPU,以更好地处理MoE工作负载中稀疏的激活模式。

第三,监管审查可能会加强。随着DeepSeek的模型被整合到关键基础设施中——从阿里云的金融服务到腾讯的微信支付——监管机构可能会仔细审查这些模型的数据处理实践和潜在偏见。DeepSeek的开源特性虽然对开发者有利,但也带来了关于模型安全性和滥用的挑战,因为任何人都可以下载并微调这些模型。

最后,DeepSeek的成功可能会引发中国AI人才格局的转变。随着这家初创公司成为最热门的AI雇主,它可能会吸引顶尖研究人员离开百度、阿里巴巴和腾讯等老牌公司。这可能会加速人才从大型科技公司向灵活初创公司的外流,进一步颠覆现有的权力结构。

总之,DeepSeek不仅仅是一家有前途的AI初创公司;它是中国AI行业一个潜在变革的催化剂。阿里巴巴和腾讯的投资竞赛标志着他们认识到,AI的未来不仅在于构建最大的模型,还在于构建最高效、最易访问且最具协作性的AI生态系统。这场竞赛的结果将塑造未来十年中国乃至全球AI的格局。

相关专题

DeepSeek15 篇相关文章open source AI150 篇相关文章large language model25 篇相关文章

时间归档

April 20262290 篇已发布文章

延伸阅读

深度求索的战略转向:为何AI领跑者必须回归基本面曾以高效模型突破备受赞誉的深度求索,如今正面临行业的普遍挑战:如何将技术辉煌转化为可持续的架构体系。这场战略调整标志着人工智能正从爆发式创新,迈向需要严谨工程纪律的成熟阶段。Why Tencent, ByteDance, and Alibaba Are Racing to Build AI Skill EcosystemsAn in-depth analysis of the strategic rush by China's tech giants—Tencent, ByteDance, and Alibaba—to dominate the emergiGPT-5.5 实测:首款真正“干实事”的 AI 模型AINews 对 GPT-5.5 进行了一系列真实场景的严苛测试,结果明确:这不是一次营销意义上的升级。该模型以前所未有的可靠性处理长链条、多分支工作流,标志着企业级 AI 应用的一个转折点。月之暗面双线出击:开源K2.6模型,同时将核心API价格上调58%月之暗面(Moonshot AI)近日祭出一套看似矛盾的组合拳:在开源其强悍的2600亿参数K2.6模型的同时,宣布核心Kimi API服务价格大幅上涨58%。这绝非失误,而是一套精心设计的战略,旨在同步收割开发者心智与企业级市场,从根本上

常见问题

这起“Why Alibaba and Tencent Are Racing to Invest in DeepSeek's AI Future”融资事件讲了什么?

In the white-hot crucible of China's AI competition, DeepSeek has emerged as the most sought-after startup, drawing simultaneous investment interest from tech behemoths Alibaba and…

从“Why is DeepSeek's Mixture-of-Experts architecture cheaper than dense models?”看,为什么这笔融资值得关注?

DeepSeek's technical breakthrough centers on its efficient use of the Mixture-of-Experts (MoE) architecture, a design that activates only a subset of a model's parameters for any given input. While models like GPT-4 are…

这起融资事件在“How does DeepSeek's investment compare to other Chinese AI startups like Zhipu AI or Baichuan?”上释放了什么行业信号?

它通常意味着该赛道正在进入资源加速集聚期,后续值得继续关注团队扩张、产品落地、商业化验证和同类公司跟进。