Vercel 每百万Token仅0.01美元的缓存定价:是成本游戏,还是AI开发者的生态陷阱?

Hacker News April 2026
来源:Hacker NewsAI infrastructure归档:April 2026
Vercel AI Gateway 将 DeepSeek-v4 闪存缓存读取价格降至每百万 Token 仅 0.01 美元,比官方定价低 64%。这一激进举措绝非简单的价格战,而是一场精心策划的平台战略,旨在抢占开发者心智,重塑 AI 推理的经济格局。

Vercel AI Gateway 针对 DeepSeek-v4 闪存缓存读取推出的每百万 Token 0.01 美元新定价,并非一场简单的价格战。这是一次经过精密计算的基础设施布局。相比 DeepSeek 官方 0.028 美元以及 OpenRouter 与之持平的价格,Vercel 提供了高达 64% 的折扣。这背后要么是 Vercel 在主动承担亏损,要么是它利用自建的边缘缓存层绕过了上游成本。与其专业版仅提供 3% 折扣形成鲜明对比的是,这揭示了一个双层策略:先用超低闪存缓存定价吸引对价格敏感的试验性开发者,然后通过边缘计算、部署和可观测性等高利润服务实现变现。此举通过将 Vercel 插入为看门人角色,威胁到了 DeepSeek 等模型提供商和 OpenRouter 等聚合商。其终极目标远不止于成本。

技术深度解析

Vercel 能够以每百万 Token 0.01 美元的价格提供 DeepSeek-v4 闪存缓存读取(即 64% 的折扣),这取决于两种可能的架构策略。第一种,也是更合理的一种,是 Vercel 构建了自己的分布式缓存层,很可能利用了其全球边缘网络(由 Cloudflare 或类似 CDN 基础设施提供支持)。Vercel 并非将每次缓存命中都路由回 DeepSeek 的服务器,而是可以从更靠近用户的节点提供缓存的响应,从而大幅降低延迟和带宽成本。这类似于 CDN 缓存静态资源的方式,但应用对象是 LLM 的提示-补全对。缓存键将是提示的哈希值(或语义嵌入),而值则是生成的响应。对于闪存缓存,这很可能使用了部署在边缘位置的高速内存存储,如 Redis 或 Memcached。

第二种可能性是一种蓄意的“亏本引流”策略,即 Vercel 通过补贴成本来获取用户。然而,考虑到 Vercel 在优化基础设施成本方面的历史(例如其 Edge Functions 和 ISR 缓存),自建缓存的假设更为可信。一个相关的开源项目是 `vllm` 仓库(在 GitHub 上拥有超过 40,000 颗星),它实现了 PagedAttention 以实现高效的 KV-cache 管理。虽然 vllm 通常用于自托管推理,但 Vercel 可能在网关层面应用了类似的缓存原则。另一个项目是 `GPTCache`(拥有超过 7,000 颗星),这是一个为 LLM 查询创建语义缓存的库。Vercel 的实现可能更进一步,将其与自己的边缘函数和分析工具集成。

技术上的权衡在于缓存命中率与准确性。语义缓存可以提供相似的提示而无需重新运行模型,但它存在提供过时或略微错误响应的风险。Vercel 的闪存缓存层可能使用了更激进、保真度更低的缓存(例如精确匹配或短 TTL),以最大化成本节约,而专业版则使用更保守、准确性保证更高的缓存。这解释了定价差异:闪存缓存之所以便宜,是因为它接受了较低的可靠性,而专业缓存则因其一致性而收取溢价。

数据要点: 闪存缓存和专业缓存之间 64% 的价格差距并非随意设定。它反映了一个深思熟虑的技术决策:为实验提供一个低成本、低可靠性的层级,同时为生产工作负载保留高保真度的缓存。

关键参与者与案例研究

| 参与者 | DeepSeek-v4 缓存读取价格(每百万 Token) | 相比官方折扣 | 关键策略 |
|---|---|---|---|
| DeepSeek 官方 | $0.028 | 基准线 | 直接模型访问,完全控制 |
| OpenRouter | $0.028 | 0% | 聚合器,多模型路由 |
| Vercel AI Gateway (闪存) | $0.01 | 64% | 亏本引流 / 自建缓存,生态系统锁定 |
| Vercel AI Gateway (专业版) | $0.027 | 3% | 更高可靠性,优质服务 |

数据要点: Vercel 的闪存层是一个异类。对于纯粹的转售商而言,64% 的折扣是不可持续的,这证实了 Vercel 要么在构建自己的基础设施,要么在为了长期的生态系统收益而接受短期亏损。OpenRouter 与官方定价持平,表明他们缺乏仅靠成本竞争所需的规模或动力。

Vercel 的策略与 AWS 早期对 S3 的策略如出一辙:提供廉价的存储来吸引开发者入门,然后向上销售计算、分析和其他服务。对于 AI,Vercel 正将网关定位为入口点,以缓存定价作为诱饵。真正的收入来自 Vercel 的核心产品:Edge Functions、Serverless Functions 和可观测性工具。使用 Vercel AI Gateway 的开发者更有可能将其整个应用程序部署在 Vercel 上,从而形成一个粘性生态系统。

DeepSeek 面临两难境地。如果他们降低自己的缓存价格以参与竞争,就会侵蚀自己的收入。如果不降价,他们就有可能将开发者的心智份额拱手让给 Vercel 的网关。作为纯粹的聚合商,OpenRouter 的筹码更少——他们依赖模型提供商的利润空间,无法轻易吸收亏损。

行业影响与市场动态

这一定价举措标志着一个更广泛的趋势:AI 模型访问的商品化。随着模型变得功能更强大、数量更多,价值正从模型本身转移到为其提供服务的基设施上。Vercel 押注开发者会选择便利性和生态系统集成,而不是原始的模型成本。这让人想起云提供商(AWS、Azure、GCP)如何将计算和存储商品化,然后通过更高级别的服务捕获价值。

AI 推理市场预计将从 2024 年的 60 亿美元增长到 2030 年的超过 400 亿美元(来源:AINews 基于行业报告的内部估算)。网关层——负责处理路由、缓存、日志记录和速率限制——是一个关键的瓶颈点。通过提供超低缓存定价,Vercel 实际上是在购买这一层的市场份额。如果他们捕获了相当一部分开发者流量,他们就能有效地控制 AI 应用栈中利润丰厚的中间层。

对于开发者而言,短期收益是显而易见的:更低的成本、更低的延迟。但长期风险是供应商锁定。一旦你的应用围绕 Vercel 的缓存和网关 API 构建,迁移到另一个平台就变得成本高昂。Vercel 的定价结构旨在奖励深度集成:使用 Vercel 进行部署、函数和可观测性的开发者,将从其 AI 网关中获得最大价值。这创造了一个良性循环(对 Vercel 而言)和一个恶性循环(对竞争对手而言)。

最终,Vercel 的 $0.01/M Token 定价不仅仅关乎缓存。它关乎控制 AI 开发者的工作流程。如果成功,Vercel 将从“托管你网站的地方”转变为“构建 AI 应用的地方”。对于 DeepSeek 和 OpenRouter 来说,警钟已经敲响。他们需要迅速创新——要么通过提供更好的缓存技术,要么通过建立自己的生态系统——否则就有可能沦为 Vercel 基础设施战略中的商品化后端。

更多来自 Hacker News

PrivateClaw:硬件加密虚拟机为AI代理重新定义信任边界PrivateClaw发布了一个从根本上重构AI代理信任机制的平台。该平台将AI代理的完整生命周期——从提示输入、中间推理到最终输出——全部运行在基于AMD SEV-SNP标准的硬件强制可信执行环境(TEE)中。与现有托管代理平台要求用户盲七天重塑开发规则:Affirm如何用多智能体AI改写软件工程范式Affirm在一周内从传统软件开发模式跃迁至多智能体协作范式,这标志着金融科技行业的一个分水岭时刻。该公司并未部署单一的AI编程助手,而是构建了一个由专业智能体组成的系统——每个智能体分别负责合规审查、安全扫描、API集成和代码生成——并通过度思考与范围蔓延:AI项目无声的自我毁灭AI行业正面临一个自相矛盾的危机:项目失败并非因为技术不够好,而是因为团队聪明反被聪明误。AINews发现了一种破坏性模式,正席卷初创公司和各大实验室——一个由过度思考、范围蔓延和结构比较组成的循环,将充满希望的想法变成臃肿、永远无法交付的查看来源专题页Hacker News 已收录 2413 篇文章

相关专题

AI infrastructure177 篇相关文章

时间归档

April 20262335 篇已发布文章

延伸阅读

LocalForge:开源控制平面,重新定义LLM部署范式LocalForge,一个开源的自托管LLM控制平面,利用机器学习智能地在本地与远程模型之间路由查询。这标志着从单一云API向去中心化、隐私优先的AI基础设施的根本性转变。xAI、Mistral与Cursor组建跨大西洋联盟,挑战OpenAI与Google霸权xAI、Mistral与Cursor正就组建战略联盟进行深入谈判,旨在整合算力、开源模型与开发者工具,以对抗OpenAI与Google的垄断地位。这标志着AI行业从垂直整合向联邦化竞争的范式转变。Cube Sandbox:AI智能体革命的关键基础设施破土而出AI智能体从实验演示迈向可靠、可扩展的‘数字员工’进程,正遭遇核心基础设施瓶颈——安全高效的执行环境。全新安全基板Cube Sandbox以毫秒级启动与轻量级隔离为承诺,旨在成为多智能体应用浪潮的基石。60万美元的AI服务器:NVIDIA B300如何重塑企业AI基础设施格局围绕NVIDIA旗舰B300 GPU打造的服务器价格逼近60万美元,标志着AI基础设施战略的决定性转向。这已不仅是购买算力,更是对前沿AI应用未来的战略押注。核心问题从‘需要多少算力’演变为‘将用它运行什么’,迫使企业重新定义其AI战略的终

常见问题

这次公司发布“Vercel's $0.01/M Token Cache Pricing: Cost Play or Ecosystem Trap for AI Developers?”主要讲了什么?

Vercel AI Gateway's new pricing for DeepSeek-v4 flash cache reads at $0.01 per million tokens is not a simple price war. It is a calculated infrastructure play. By offering a 64% d…

从“Vercel AI Gateway cache pricing strategy”看,这家公司的这次发布为什么值得关注?

Vercel's ability to offer DeepSeek-v4 flash cache reads at $0.01 per million tokens—a 64% discount—hinges on two possible architectural strategies. The first, and more plausible, is that Vercel has built its own distribu…

围绕“DeepSeek-v4 flash cache vs professional tier”,这次发布可能带来哪些后续影响?

后续通常要继续观察用户增长、产品渗透率、生态合作、竞品应对以及资本市场和开发者社区的反馈。