DeepSeek V4开源模型:打破闭源AI垄断的里程碑时刻

Hacker News May 2026
来源:Hacker NewsDeepSeek V4open source AIlarge language model归档:May 2026
DeepSeek V4来了,这绝非又一个普通开源模型。它以令人震惊的姿态,在关键基准测试中追平甚至超越了最昂贵的闭源模型,标志着AI格局的根本性转变。这是开源社区等待已久的时刻。

DeepSeek V4的发布标志着AI军备竞赛中的决定性转折点。多年来,主流观点一直认为,只有拥有专有数据和数千块GPU的大型资金充裕实验室才能打造出前沿模型。DeepSeek V4粉碎了这一假设。它利用新颖的混合专家(MoE)架构,在推理、编程和多语言任务上取得了最先进的成果,同时其计算预算仅为GPT-4o和Claude 3.5等闭源竞争对手的一小部分。我们的分析表明,DeepSeek V4的性能绝非偶然;它是精心工程选择的结果,旨在最大化参数效率和训练稳定性。该模型能够以高度连贯性处理128K上下文窗口,并在非英语任务上表现出色,这进一步巩固了其作为开源领域真正颠覆者的地位。

技术深度解析

DeepSeek V4的秘密武器是其精炼的混合专家(MoE)架构。与所有参数对每个输入都处于激活状态的密集模型不同,MoE将模型划分为多个专门的“专家”,由一个门控网络将每个token路由到最相关的子集。DeepSeek V4通过一种新颖的“负载均衡”门控机制进一步推进了这一概念,该机制防止了专家崩溃——即少数专家承担所有工作的常见问题。这使得模型能够扩展其总参数数量(据报道超过1万亿),同时保持每个token的推理成本较低,因为任何时候只有一小部分专家(约400亿参数)被激活。

这种设计直接解决了困扰密集模型的“计算墙”问题。训练一个密集的1万亿参数模型成本高得令人望而却步。DeepSeek V4以极低的训练成本实现了可比较或更优的结果。该模型还采用了多头潜在注意力机制,这是一种注意力机制的变体,可改善长上下文性能。这就是为什么DeepSeek V4能够以卓越的连贯性处理128K上下文窗口,而许多模型在这方面都难以企及。

影响这一方法的一个关键开源代码库是Mistral AI的“Mixtral”系列,它普及了开源模型的MoE。然而,DeepSeek V4通过引入动态专家路由和更激进的稀疏性调度,超越了Mixtral。DeepSeek V4的GitHub仓库(github.com/deepseek-ai/DeepSeek-V4)已获得超过15,000颗星,社区正在积极尝试微调和量化。

基准测试表现:

| 基准测试 | DeepSeek V4 | GPT-4o(闭源) | Claude 3.5 Sonnet(闭源) | Llama 3 70B(开源) |
|---|---|---|---|---|
| MMLU(5-shot) | 89.2% | 88.7% | 88.3% | 82.0% |
| HumanEval(Pass@1) | 92.1% | 90.2% | 92.0% | 81.7% |
| GSM8K(8-shot) | 96.5% | 95.8% | 96.0% | 93.0% |
| MATH(4-shot) | 76.8% | 76.6% | 71.1% | 50.4% |
| HellaSwag(10-shot) | 87.3% | 87.1% | 86.9% | 83.8% |

数据要点: DeepSeek V4不仅在关键推理和编程基准测试上与GPT-4o和Claude 3.5持平,而且略有超出。它在MATH和HumanEval上的领先优势尤其显著,因为这些是开发者采用的高价值任务。与Llama 3 70B的差距巨大,证实了DeepSeek V4处于不同的性能层级。

关键参与者与案例研究

DeepSeek V4的直接受益者是那些在开源模型之上构建的公司。以专门托管开源模型的云平台Together AI为例,他们已经宣布支持DeepSeek V4,提供的推理服务成本仅为OpenAI API的一小部分。同样,在其搜索产品中使用多种模型的Perplexity AI,现在可以集成一个前沿级别的开源模型,而无需支付按token计算的许可费,从而提高了利润率。

在硬件方面,专注于超快推理硬件的GroqCerebras也将受益。DeepSeek V4的MoE架构非常适合它们的硬件,可能实现以前只有通过定制、昂贵的解决方案才能实现的实时、高吞吐量应用。

竞争格局:

| 公司/模型 | 策略 | 关键优势 | 关键劣势 |
|---|---|---|---|
| OpenAI(GPT-4o) | 专有,API优先 | 品牌、生态系统、微调API | 高成本,封闭生态系统 |
| Anthropic(Claude 3.5) | 专有,安全优先 | 长上下文,安全特性 | 定制有限,高成本 |
| Google(Gemini 1.5) | 专有,集成化 | 巨大上下文窗口,多模态 | 复杂性,质量不稳定 |
| Meta(Llama 3) | 开源,社区驱动 | 免费,可定制 | 与前沿模型存在性能差距 |
| DeepSeek(V4) | 开源,MoE | 前沿性能,低成本 | 生态系统较小,工具有限 |

数据要点: DeepSeek V4直接威胁了闭源巨头的“性能溢价”。其开源性质和具有竞争力的基准测试结果,使其成为对成本敏感的企业和初创公司最具吸引力的选择,这些公司需要尖端AI而又不想被供应商锁定。

行业影响与市场动态

DeepSeek V4的发布加速了我们六个月前识别出的一个趋势:基础模型层的商品化。AI的真正价值正在向上层移动。AI基础设施市场预计将从2024年的500亿美元增长到2028年的超过2000亿美元(来源:AINews内部市场分析)。然而,模型层本身正面临利润率压缩。DeepSeek V4的推理定价已经比GPT-4o低10到20倍。

这创造了一个分化的市场。一方面,将出现一个面向企业垂直领域(例如法律、医疗)的专用微调模型的“高端层级”。另一方面,将出现一个面向通用任务的“商品层级”,DeepSeek V4及其后继者将在此占据主导地位。

更多来自 Hacker News

GitHub Copilot Max 计划开启AI编程助手的按量付费时代GitHub 近期对 Copilot 定价的全面改革,标志着其从一刀切的订阅模式向基于使用量的模式进行战略转型。新的 Pro 计划提供了灵活的 AI 查询配额,而 Max 计划则面向那些需要无限制访问和优先计算能力的重度用户。这一变化直接回谷歌AI摘要正在悄然摧毁健康内容生态AINews揭露了健康信息生态中一场无声但毁灭性的变革。谷歌的AI摘要——那些由大语言模型生成的突出答案框——现已出现在超过60%的健康相关搜索查询中,系统性地埋没了原创发布者内容。这不仅仅是流量问题;这是医学知识生产、分发和货币化方式的结大模型为何更看重软件补丁日期,而非历史里程碑当被要求列出网络上最具“意义”的日期时,大型语言模型不会提及 1776 年 7 月 4 日或柏林墙倒塌。相反,它们会给出大量软件发布日期、API 弃用通知和 Stack Overflow 时间戳。这并非程序错误,而是训练数据的直接映射。LL查看来源专题页Hacker News 已收录 3445 篇文章

相关专题

DeepSeek V442 篇相关文章open source AI183 篇相关文章large language model50 篇相关文章

时间归档

May 20261653 篇已发布文章

延伸阅读

DeepSeek V4 重写AI经济学:开源架构击败闭源巨头DeepSeek V4 并非一次常规升级,而是一次根本性的架构重写。它采用动态稀疏注意力机制与重新设计的混合专家路由器,在多项任务上匹敌甚至超越最昂贵的闭源模型,同时将推理成本降低一个数量级。DeepSeek v4自适应路由:AI“越大越好”时代的终结DeepSeek悄然发布了其大型语言模型的v4版本,我们的分析显示,这并非一次简单的迭代,而是一场根本性的架构变革。通过引入自适应路由混合专家系统,根据查询复杂度动态分配算力,DeepSeek v4在推理成本上比同类模型低40%,同时性能媲DeepSeek V4 颠覆AI经济学:推理成本直降40%、视频生成原生集成,算力霸权终结DeepSeek V4 不仅仅是一次模型迭代,它是对AI经济模式的一纸宣战书。通过将推理成本削减40%,同时将视频生成与世界模拟整合进单一框架,V4重新定义了开源模型的能力边界,并宣告了“算力即性能”时代的终结。法朵命名的大模型:Amália AI如何夺回葡萄牙语主权一款以葡萄牙国宝级法朵歌手命名的全新大语言模型Amália正式发布,专为欧洲葡萄牙语打造。它通过聚焦葡萄牙独特的语法、文化语境与低资源优化,在政府、教育和媒体领域超越通用模型,挑战AI行业对边缘语言的忽视。

常见问题

这次模型发布“DeepSeek V4 Open Source Model Shatters the Closed-Source AI Monopoly”的核心内容是什么?

The release of DeepSeek V4 marks a decisive turning point in the AI arms race. For years, the prevailing wisdom held that only massive, well-funded labs with proprietary data and t…

从“DeepSeek V4 vs GPT-4o benchmark comparison”看,这个模型发布为什么重要?

DeepSeek V4’s secret weapon is its refined Mixture-of-Experts (MoE) architecture. Unlike a dense model where all parameters are active for every input, MoE divides the model into multiple specialized 'experts,' with a ga…

围绕“how to run DeepSeek V4 locally”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。