技术深度解析
Vercel 能够以每百万 Token 0.01 美元的价格提供 DeepSeek-v4 闪存缓存读取(即 64% 的折扣),这取决于两种可能的架构策略。第一种,也是更合理的一种,是 Vercel 构建了自己的分布式缓存层,很可能利用了其全球边缘网络(由 Cloudflare 或类似 CDN 基础设施提供支持)。Vercel 并非将每次缓存命中都路由回 DeepSeek 的服务器,而是可以从更靠近用户的节点提供缓存的响应,从而大幅降低延迟和带宽成本。这类似于 CDN 缓存静态资源的方式,但应用对象是 LLM 的提示-补全对。缓存键将是提示的哈希值(或语义嵌入),而值则是生成的响应。对于闪存缓存,这很可能使用了部署在边缘位置的高速内存存储,如 Redis 或 Memcached。
第二种可能性是一种蓄意的“亏本引流”策略,即 Vercel 通过补贴成本来获取用户。然而,考虑到 Vercel 在优化基础设施成本方面的历史(例如其 Edge Functions 和 ISR 缓存),自建缓存的假设更为可信。一个相关的开源项目是 `vllm` 仓库(在 GitHub 上拥有超过 40,000 颗星),它实现了 PagedAttention 以实现高效的 KV-cache 管理。虽然 vllm 通常用于自托管推理,但 Vercel 可能在网关层面应用了类似的缓存原则。另一个项目是 `GPTCache`(拥有超过 7,000 颗星),这是一个为 LLM 查询创建语义缓存的库。Vercel 的实现可能更进一步,将其与自己的边缘函数和分析工具集成。
技术上的权衡在于缓存命中率与准确性。语义缓存可以提供相似的提示而无需重新运行模型,但它存在提供过时或略微错误响应的风险。Vercel 的闪存缓存层可能使用了更激进、保真度更低的缓存(例如精确匹配或短 TTL),以最大化成本节约,而专业版则使用更保守、准确性保证更高的缓存。这解释了定价差异:闪存缓存之所以便宜,是因为它接受了较低的可靠性,而专业缓存则因其一致性而收取溢价。
数据要点: 闪存缓存和专业缓存之间 64% 的价格差距并非随意设定。它反映了一个深思熟虑的技术决策:为实验提供一个低成本、低可靠性的层级,同时为生产工作负载保留高保真度的缓存。
关键参与者与案例研究
| 参与者 | DeepSeek-v4 缓存读取价格(每百万 Token) | 相比官方折扣 | 关键策略 |
|---|---|---|---|
| DeepSeek 官方 | $0.028 | 基准线 | 直接模型访问,完全控制 |
| OpenRouter | $0.028 | 0% | 聚合器,多模型路由 |
| Vercel AI Gateway (闪存) | $0.01 | 64% | 亏本引流 / 自建缓存,生态系统锁定 |
| Vercel AI Gateway (专业版) | $0.027 | 3% | 更高可靠性,优质服务 |
数据要点: Vercel 的闪存层是一个异类。对于纯粹的转售商而言,64% 的折扣是不可持续的,这证实了 Vercel 要么在构建自己的基础设施,要么在为了长期的生态系统收益而接受短期亏损。OpenRouter 与官方定价持平,表明他们缺乏仅靠成本竞争所需的规模或动力。
Vercel 的策略与 AWS 早期对 S3 的策略如出一辙:提供廉价的存储来吸引开发者入门,然后向上销售计算、分析和其他服务。对于 AI,Vercel 正将网关定位为入口点,以缓存定价作为诱饵。真正的收入来自 Vercel 的核心产品:Edge Functions、Serverless Functions 和可观测性工具。使用 Vercel AI Gateway 的开发者更有可能将其整个应用程序部署在 Vercel 上,从而形成一个粘性生态系统。
DeepSeek 面临两难境地。如果他们降低自己的缓存价格以参与竞争,就会侵蚀自己的收入。如果不降价,他们就有可能将开发者的心智份额拱手让给 Vercel 的网关。作为纯粹的聚合商,OpenRouter 的筹码更少——他们依赖模型提供商的利润空间,无法轻易吸收亏损。
行业影响与市场动态
这一定价举措标志着一个更广泛的趋势:AI 模型访问的商品化。随着模型变得功能更强大、数量更多,价值正从模型本身转移到为其提供服务的基设施上。Vercel 押注开发者会选择便利性和生态系统集成,而不是原始的模型成本。这让人想起云提供商(AWS、Azure、GCP)如何将计算和存储商品化,然后通过更高级别的服务捕获价值。
AI 推理市场预计将从 2024 年的 60 亿美元增长到 2030 年的超过 400 亿美元(来源:AINews 基于行业报告的内部估算)。网关层——负责处理路由、缓存、日志记录和速率限制——是一个关键的瓶颈点。通过提供超低缓存定价,Vercel 实际上是在购买这一层的市场份额。如果他们捕获了相当一部分开发者流量,他们就能有效地控制 AI 应用栈中利润丰厚的中间层。
对于开发者而言,短期收益是显而易见的:更低的成本、更低的延迟。但长期风险是供应商锁定。一旦你的应用围绕 Vercel 的缓存和网关 API 构建,迁移到另一个平台就变得成本高昂。Vercel 的定价结构旨在奖励深度集成:使用 Vercel 进行部署、函数和可观测性的开发者,将从其 AI 网关中获得最大价值。这创造了一个良性循环(对 Vercel 而言)和一个恶性循环(对竞争对手而言)。
最终,Vercel 的 $0.01/M Token 定价不仅仅关乎缓存。它关乎控制 AI 开发者的工作流程。如果成功,Vercel 将从“托管你网站的地方”转变为“构建 AI 应用的地方”。对于 DeepSeek 和 OpenRouter 来说,警钟已经敲响。他们需要迅速创新——要么通过提供更好的缓存技术,要么通过建立自己的生态系统——否则就有可能沦为 Vercel 基础设施战略中的商品化后端。