大语言模型重写数据库内核:从SQL生成到自主查询优化

一场静默的革命正在企业数据系统的核心地带展开。大语言模型不再满足于仅仅将自然语言翻译成SQL,它们正被直接部署用于优化查询执行计划本身。这标志着AI从应用层工具到核心系统组件的范式转变,有望带来前所未有的性能提升。

AI应用的前沿正从用户界面转向企业软件的引擎室。一个重要的新趋势是,LLM正被直接集成到数据库内核中,其任务不再是编写查询,而是优化这些查询的执行方式。这远远超越了如今已司空见惯的自然语言转SQL翻译。相反,LLM正被训练来理解查询意图、分析数据模式和统计信息,并提出或选择更优的执行路径——这一角色历来由数据库基于成本的优化器(CBO)专属。传统的CBO依赖于僵化的数学模型和预先收集的统计信息,在处理复杂的多表连接查询或快速演变的数据分布时可能严重失效。而LLM在大量代码、执行计划日志和查询结果的数据集上进行训练,能够捕捉到传统统计模型难以察觉的微妙模式和关联。这种能力使它们能够预测哪种连接顺序、索引使用或数据分片策略在特定上下文中效果最佳,有时甚至能发现人类专家或传统优化器会忽略的反直觉优化方案。这不仅仅是渐进式改进,而是朝着真正“自治”数据库系统迈出的关键一步,系统能够持续学习并适应其独特的工作负载和数据特征。

技术深度解析

将LLM集成到查询优化中代表了一次根本性的架构转变。传统的基于成本的优化器遵循一个确定性流程:解析SQL,生成一组逻辑上等价的查询计划,使用基于基数估计、I/O和CPU成本的模型为每个计划分配成本,然后选择成本最低的计划。该模型的弱点在于其依赖准确的统计信息,且无法处理未见过的查询模式或复杂的相关性。

基于LLM的优化器通过以下几种关键方式颠覆了这一流程:

1. 基于学习的成本建模: 与固定公式不同,LLM可以被训练来预测候选计划的实际执行时间或资源消耗。训练数据由查询计划与其实际执行指标(延迟、CPU周期、I/O)配对组成。像 PostgreSQL的pg_hint_plan 扩展或微软的 Query Embeddings 研究等项目展示了如何将计划特征向量化以供模型使用。
2. 利用启发式智能进行计划空间剪枝: 复杂查询的可能执行计划空间极其庞大。LLM可以充当智能剪枝器,利用其对语义上下文的理解(例如,“这是一个时间序列汇总查询”)来立即丢弃不合理的计划形态,并将搜索集中在有希望的区域。这类似于国际象棋引擎使用启发式方法来避免评估明显糟糕的走法。
3. 跨优化洞察: LLM可以关联不同查询之间以及随时间推移的优化决策。例如,它可能观察到创建某个复合索引,虽然前期成本较高,却能显著改善一整类频繁查询的性能——这是专注于单个查询的传统CBO会忽略的整体性洞察。

该领域一个开创性的开源项目是 “Bao”(最初来自威斯康星大学麦迪逊分校,现在有社区分支)。Bao使用强化学习,根据观察到的性能来学习应对PostgreSQL数据库应用哪些查询提示。虽然严格来说它不是一个LLM,但其架构——一个与传统优化器并存并覆盖其决策的学习模型——是LLM集成的蓝图。

近期的基准测试虽然仍处于早期阶段,但已显示出有希望的结果。在连接顺序基准测试(JOB)的受控测试中,早期学习型优化器原型已能找出比PostgreSQL原生优化器为最复杂查询选择的执行计划快2-3倍的执行计划。

| 优化方法 | 核心机制 | 优势 | 劣势 |
|---|---|---|---|
| 传统基于成本的优化器 | 静态成本公式,直方图统计 | 久经考验、稳定、可预测 | 对关联数据、复杂连接处理不佳;需要完美的统计信息 |
| 强化学习(例如,Bao) | 学习计划提示的奖励(延迟) | 适应特定工作负载 | 需要大量训练;难以适应突然变化 |
| 基于LLM的优化器 | 对查询/数据的语义理解,通过嵌入向量预测成本 | 可泛化,能推理未见模式,具有整体视图 | 推理延迟高;决策是“黑盒”;内存占用大 |

数据要点: 上表演示了从僵化的、基于规则的系统向自适应的、基于学习的系统的演进。LLM在泛化能力和整体推理方面潜力最大,但也带来了延迟和可解释性方面的新挑战,这些必须在生产使用中解决。

主要参与者与案例研究

构建AI优化数据库的竞赛正在初创公司和行业巨头之间展开,各方策略各异。

注入AI的行业巨头:
* 微软(Azure SQL Database, Cosmos DB): 微软正深度整合其Azure OpenAI能力。虽然未公开详述完整的基于LLM的优化器,但其 “Azure SQL Database Automatic Tuning” 使用机器学习来检测和修复性能回归,应用索引和计划强制建议。合乎逻辑的下一步是使用像GPT-4-Turbo这样的模型,基于对性能问题的自然语言描述来生成这些建议。
* 谷歌云(AlloyDB, Spanner): 谷歌利用其基础性AI研究。AlloyDB的智能缓存和列式引擎已使用ML进行预测。谷歌研究院在 “Learned Cardinality Estimation” 方面的工作直接针对CBO的一个核心弱点。集成像PaLM 2这样的模型来监督整个优化过程,是一个合理的路线图。
* 甲骨文(Autonomous Database): 甲骨文的旗舰产品被定位为“自治”。其机器学习模型持续监控工作负载和配置,执行索引管理和SQL计划调优。纳入大型基础模型以理解业务上下文(例如,“优先处理季度末报告查询”)将是这一愿景的自然演进。

AI原生初创公司:

延伸阅读

Anthropic的神学对话:AI能否拥有灵魂?这对对齐研究意味着什么Anthropic正与顶尖基督教神学家及伦理学家展开一系列开创性的私密对话,直面人工智能是否可能拥有灵魂或精神维度的终极命题。这一战略举措标志着其对齐研究正从纯粹的技术框架,转向在人类既有价值体系中寻求伦理基石。Predict-RLM:运行时革命,让AI为自己编写“行动脚本”一场静默的革命正在AI基础设施层展开。新型运行时框架Predict-RLM,使大语言模型能够在推理过程中动态编写并执行自己的推理脚本。这标志着AI从静态、预定义的工作流,转向能够自主架构问题解决路径的根本性转变。Anthropic下一代AI模型发布在即,全球金融监管机构紧急应对系统性风险一场由AI创新引发的金融监管风暴正在酝酿。全球主要银行CEO被监管机构紧急召集,议题并非市场崩盘,而是Anthropic即将发布的新一代AI系统——其具备的自主规划与金融世界模拟能力,可能从根本上重塑或动摇全球金融体系的根基。这标志着AI创神话降临:AI的进攻性飞跃如何迫使安全范式全面重构以“神话”级系统为代表的新一代人工智能,正在从根本上重写网络安全规则。它们超越了传统的工具辅助黑客行为,成为能够自主推理、发现新型攻击链并实时适应的自主智能体。这一能力飞跃正在瓦解复杂攻击的技术壁垒,迫使整个安全行业进入一场深刻的范式转移。

常见问题

这次模型发布“LLMs Rewrite Database Kernels: From SQL Generation to Autonomous Query Optimization”的核心内容是什么?

The frontier of AI application is moving from the user interface to the engine room of enterprise software. A significant new trend sees LLMs being integrated directly into databas…

从“How does LLM query optimization differ from AI writing SQL?”看,这个模型发布为什么重要?

The integration of LLMs into query optimization represents a fundamental architectural shift. Traditional cost-based optimizers operate on a deterministic pipeline: parse SQL, generate a set of logically equivalent query…

围绕“What are the risks of using an AI for database query planning?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。