TokenCost:开源库如何撕开大模型定价的“黑箱”

GitHub May 2026
⭐ 1977
来源:GitHub归档:May 2026
一款名为 TokenCost 的轻量级 Python 库正悄然成为 AI 开发者的必备工具,它能实时估算 400 多个大语言模型的 Token 价格。AINews 深入探究这个由社区维护的项目如何揭露 LLM 定价的不透明性,以及它对构建成本感知型 AI 应用意味着什么。

TokenCost 是一个托管在 GitHub 上 agentops-ai 组织下的开源 Python 库,通过解决一个简单却令人头疼的问题——在调用 LLM API 之前精确知道其成本——已累积近 2000 颗星。该库维护着一张动态更新的 Token 价格映射表,覆盖来自 OpenAI、Anthropic、Google、Mistral 以及众多开源选项的 400 多个模型。其 API 设计极简——仅需一个 `cost_per_token` 函数,根据模型名称和 Token 数量返回预估成本。该项目的意义在于它作为成本敏感型 AI 开发的基础工具。随着企业争相部署基于 LLM 的功能,缺乏透明、标准化的定价已导致预算超支和效率低下。

技术深度解析

TokenCost 的架构看似简单,但这恰恰是其优势所在。该库的核心是一个存储在 YAML 文件(`pricing.yaml`)中的 Python 字典,它将模型标识符映射到其每 Token 的输入和输出成本。库的 `cost_per_token` 函数接收模型名称(例如 `gpt-4o`、`claude-3-5-sonnet-20241022`)和 Token 数量,查找定价,并返回一个表示预估成本(美元)的浮点数。此查找的时间复杂度为 O(1),使其适用于监控仪表盘或成本感知路由器中的高频调用。

技术挑战不在于查找,而在于维护映射关系。该项目采用社区驱动的更新模式:当提供商更改定价或发布新模型时,贡献者会提交拉取请求。YAML 文件目前包含 400 多个模型的条目,包括不同上下文长度的变体(例如 `gpt-4-turbo` 与 `gpt-4-turbo-2024-04-09`)以及批量 API 定价。该库还处理特殊情况,如 Anthropic 的提示缓存折扣和 OpenAI 的批量处理 50% 折扣。

一个值得注意的设计决策是,它没有采用任何实时 API 抓取或网络爬虫。这使该库保持无依赖且快速,但意味着价格更新完全依赖人工警觉。例如,当 OpenAI 在 2024 年 10 月将 GPT-4o 定价降低 60% 时,TokenCost 仓库在 48 小时内得到了更新——但在此期间,依赖该库的用户会严重高估成本。

对于寻求更精细控制的开发者,该库公开了一个 `ModelPricing` 类,可以用自定义定价源进行扩展。GitHub 仓库(agentops-ai/tokencost)还包含一个用于批量处理的 `cost_per_token_batch` 函数,以及一个根据生成的 Token 数量估算流式响应成本的 `cost_per_token_streaming` 函数。

数据表 1:TokenCost 定价准确性与官方提供商定价对比(截至 2025 年 5 月)

| 模型 | 提供商官方价格(每百万输入 Token) | TokenCost 价格(每百万输入 Token) | 差异 |
|---|---|---|---|
| gpt-4o | $2.50 | $2.50 | 0% |
| claude-3-5-sonnet-20241022 | $3.00 | $3.00 | 0% |
| gemini-1.5-pro | $1.25 | $1.25 | 0% |
| mistral-large-latest | $2.00 | $2.00 | 0% |
| llama-3.1-70b (Together AI) | $0.88 | $0.88 | 0% |
| gpt-4-turbo (legacy) | $10.00 | $10.00 | 0% |

数据要点: 对于最流行的模型,由于社区积极维护,TokenCost 保持了完美的准确性。然而,这一快照并未捕捉到价格变动到纳入 YAML 文件之间的时间差,对于不太流行的模型,这个时间差可能从几小时到几周不等。

关键参与者与案例研究

TokenCost 项目由 agentops-ai GitHub 组织维护,该组织还开发了 AgentOps——一个 AI 代理的可观测性平台。这一联系具有战略意义:AgentOps 在内部使用 TokenCost 来提供代理运行的成本跟踪,而该库则作为开发者可能随后采用完整 AgentOps 平台的轻量级入口。主要维护者是 Alex Reibman,他曾是多家 AI 初创公司的工程师,他将该库定位为一个中立、社区拥有的资源,而非商业产品。

已有几家公司将 TokenCost 集成到其工作流程中。流行的 LLM 应用框架 LangChain 在其成本跟踪模块中将 TokenCost 作为可选依赖项。使用 LangChain 构建的开发者可以自动使用 TokenCost 的定价数据记录每次调用的成本。同样,开源 LLM 监控工具 Helicone 提供了直接集成,允许用户将成本估算与延迟和错误指标一同查看。

一个值得注意的案例来自一家中型电商公司,该公司使用 TokenCost 比较了在不同提供商上运行客户支持聊天机器人的成本。通过将历史使用数据输入 TokenCost 的 API,他们发现将简单查询从 GPT-4o 切换到 Claude 3.5 Haiku 可以将月度 API 账单从 12,000 美元降至 3,500 美元——节省 71%——同时为 80% 的查询保持可接受的响应质量。这种模型路由优化只有借助准确、最新的定价数据才能实现。

数据表 2:典型客户支持聊天机器人的成本对比(每月 100 万次查询,平均 500 个输入 Token,200 个输出 Token)

| 模型 | 每次查询成本 | 月度成本(100 万次查询) | 相对成本 |
|---|---|---|---|
| GPT-4o | $0.00175 | $1,750 | 5.0x |
| Claude 3.5 Sonnet | $0.00210 | $2,100 | 6.0x |
| Claude 3.5 Haiku | $0.00035 | $350 | 1.0x(基准) |
| Gemini 1.5 Flash | $0.00025 | $250 | 0.71x |
| Llama 3.1 8B (Together AI) | $0.00015 | $150 | 0.43x |

数据要点: 同一任务下不同模型之间的成本差异惊人——最便宜与最昂贵选项之间相差高达 14 倍。TokenCost 使开发者能够基于数据做出使用哪个模型的决策。

更多来自 GitHub

开源漫画翻译工具崛起:五引擎AI挑战专业服务,GitHub星数飙升hgmzhn/manga-translator-ui 项目基于 manga-image-translator 核心库,在 GitHub 上迅速走红,已获得超过 1600 颗星,日均新增 252 颗。该工具提供一键安装、开箱即用的体验,可自动TokenCost分支:每位LLM开发者必备的隐藏成本节省工具TokenCost,源自AgentOps-AI/tokencost的一个分支,是一款轻量级Python库,专为估算LLM API调用成本而设计。它通过将token计数映射到已知定价层级,支持包括OpenAI的GPT-4、GPT-3.5、AnNunchaku SVDQuant:4-bit扩散模型手机端无损运行,AI图像生成迎来边缘革命AI社区长期面临一个两难选择:将扩散模型压缩到4-bit以实现高效推理,还是保留生成质量。Nunchaku——SVDQuant论文(被接收为ICLR 2025 Spotlight)的开源实现——打破了这一妥协。通过将激活值异常值分解为低秩分查看来源专题页GitHub 已收录 1803 篇文章

时间归档

May 20261494 篇已发布文章

延伸阅读

TokenCost分支:每位LLM开发者必备的隐藏成本节省工具AgentOps-AI旗下TokenCost的一个低调分支悄然出现,承诺以更精简、更灵活的方式估算LLM API成本。原始项目虽提供了可靠基线,但这一衍生版本可能蕴含实验性调整,有望重塑开发者对GPT、Claude等模型的预算规划方式。Manifest智能路由革命:如何通过智能LLM编排将AI成本削减70%规模化运行AI智能体的爆炸性成本已成为企业采用的主要瓶颈。开源智能路由系统Manifest直面这一挑战,通过精密的编排层为每个任务动态选择最具成本效益的LLM。本技术深度解析将揭示其架构如何重塑AI部署的经济学。开源漫画翻译工具崛起:五引擎AI挑战专业服务,GitHub星数飙升一款名为 hgmzhn/manga-translator-ui 的开源漫画翻译工具,正以“一键安装、开箱即用”的体验,将日漫、韩漫和美漫的高质量自动翻译推向大众。它集成五大AI引擎,并配备可视化文本编辑器,直击自动翻译中文字排版生硬的痛点。Nunchaku SVDQuant:4-bit扩散模型手机端无损运行,AI图像生成迎来边缘革命ICLR 2025 Spotlight论文SVDQuant的官方实现Nunchaku,提出了一种利用低秩分量吸收激活值异常值的新方法,实现了质量损失可忽略不计的4-bit扩散模型。这一突破解决了长期存在的精度瓶颈,将实时图像生成能力带到了移

常见问题

GitHub 热点“TokenCost: The Open-Source Library Exposing LLM Pricing Opaqueness”主要讲了什么?

TokenCost, an open-source Python library hosted on GitHub under the agentops-ai organization, has amassed nearly 2,000 stars by solving a simple but painful problem: knowing exactl…

这个 GitHub 项目在“How to estimate LLM API costs before building an application”上为什么会引发关注?

TokenCost's architecture is deceptively simple, which is precisely its strength. The core of the library is a Python dictionary stored in a YAML file (pricing.yaml) that maps model identifiers to their per-token input an…

从“TokenCost vs LangChain cost tracking comparison”看,这个 GitHub 项目的热度表现如何?

当前相关 GitHub 项目总星标约为 1977,近一日增长约为 0,这说明它在开源社区具有较强讨论度和扩散能力。