约束哈密顿神经网络:物理信息AI的硬约束革命

GitHub March 2026
⭐ 115
来源:GitHub归档:March 2026
物理信息机器学习领域正迎来新突破——约束哈密顿神经网络。该方法将物理守恒定律作为架构层面的硬约束而非软惩罚嵌入模型,有望在模拟从分子相互作用到天体力学等复杂动力系统时,实现前所未有的精度与稳定性。

GitHub 仓库 `mfinzi/constrained-hamiltonian-neural-networks` 标志着物理信息神经网络(PINN)领域一次重要的方法论转向。该研究由研究员 Miles Finzi 及其合作者主导,致力于构建从本质上尊重物理系统哈密顿结构的神经网络,将能量、动量等不变量守恒直接强制嵌入模型架构。这种“硬约束”理念与当前主流的“软约束”范式形成鲜明对比——后者仅通过在损失函数中添加惩罚项来鼓励物理规律遵守。软约束虽灵活易实现,却难以在长期模拟中保证严格守恒,常导致结果偏离物理现实。

该项目聚焦于开发能内禀保持辛结构的网络架构。在经典力学中,哈密顿系统由坐标 q(位置)与动量 p 描述,其动力学由哈密顿函数 H(q, p) 通过哈密顿方程支配:q̇ = ∂H/∂p,ṗ = -∂H/∂q。此结构自动保证哈密顿量(能量)等物理量守恒。传统神经常微分方程(Neural ODEs)或哈密顿神经网络(HNNs)虽能从数据中学习近似 H 的函数,但网络本身是黑箱;数值积分误差与近似不准确性会导致能量漂移。

约束哈密顿神经网络通过直接参数化“辛梯度”解决此问题。其输出被约束在旋度等于正则辛矩阵 J 的函数空间中。例如,通过 `symplectic-gradient-net` 层,可确保网络学习的任何标量函数 H_θ 产生的更新严格满足哈密顿形式。这是一种硬约束:该网络不可能为非自治系统输出非能量守恒的向量场。

该仓库提供了几种关键架构:基础模型“约束哈密顿网络”(CHaN)强制精确辛结构;“约束拉格朗日网络”(CLaN)适用于位形空间描述的系统;“端口-哈密顿网络”则扩展至处理具能量耗散或注入的开放系统。训练过程虽仍需最小化预测与观测状态导数或轨迹间的损失,但搜索空间被限制在物理合理的动力学范围内,相比无约束模型大幅降低了样本复杂度。

初步基准测试显示,在10轨道N体问题中,约束HNN的平均能量误差仅0.05%,远低于标准神经ODE的8.7%和软约束HNN的2.1%;在1000秒摆锤模拟中,其相位误差可忽略不计,且仅需10条轨迹数据即可训练,数据效率显著提升。其长期稳定性比软约束方法高出数个数量级,在保持神经网络灵活性与可微分特性的同时,逼近传统数值求解器(如RK4)的精度。

这项研究处于多个活跃学术圈的交汇点。主要开发者 Miles Finzi(曾任职于纽约大学,现可能投身工业界研究)的工作建立在 Greydanus 等人(HNNs 提出者)的基础研究之上,并与布朗大学 George Em Karniadakis 领衔的物理信息机器学习社区相呼应。这种约束方法与 Michael Bronstein、Taco Cohen 等学者倡导的“几何深度学习”浪潮一脉相承,强调构建尊重数据域对称性与结构的网络。

当前,产业界对物理信息AI的探索呈现多元格局:英伟达通过 Modulus、SimNet 等大型软约束框架,致力于工业数字孪生领域的AI-物理融合民主化;DeepMind 聚焦基础突破与应用(如 AlphaFold、图网络、PDE求解器),旨在发现新科学原理并优化复杂系统;IBM 研究院的加速发现实验室则关注材料科学、化学及混合AI-物理模型;而 SandboxAQ 等初创公司正利用量子启发模拟技术,深耕分子对接、金融建模等垂直领域。

约束HNN研究代表了一种更基础、学术驱动的对“可保证正确性”的追求。其应用很可能率先在对模拟保真度有极高要求或失误成本巨大的领域展开,例如航空航天或制药研发。

技术深度解析

约束哈密顿神经网络(CHNNs)的核心创新在于通过架构设计强制实施辛结构。在物理学中,哈密顿系统由坐标 \(q\)(位置)和动量 \(p\) 描述,其动力学由哈密顿函数 \(H(q, p)\) 通过哈密顿方程支配:\(\dot{q} = \partial H/\partial p\),\(\dot{p} = -\partial H/\partial q\)。此结构自动保证哈密顿量(能量)及其他物理量守恒。标准的神经常微分方程(Neural ODEs)或哈密顿神经网络(HNNs)从数据中学习近似 \(H\) 的函数,但网络本身是黑箱;数值积分误差和近似不准确性会导致能量漂移。

CHNNs 通过直接参数化*辛梯度*来解决此问题。网络的输出被约束在旋度等于正则辛矩阵 \(J\) 的函数空间中。一种实现方法是使用 `symplectic-gradient-net` 层,该层确保网络学习的任何标量函数 \(H_\theta\) 所产生的更新严格满足哈密顿形式。这是一种硬约束:对于自治系统,该网络不可能输出一个不守恒能量的向量场。

该仓库提供了几种关键架构:
1. 约束哈密顿网络(CHaN): 强制精确辛性的基础模型。
2. 约束拉格朗日网络(CLaN): 适用于在位形空间中描述更自然的系统。
3. 端口-哈密顿网络: 扩展用于处理具有能量耗散或注入的开放系统。

训练过程涉及最小化预测与观测状态导数或轨迹之间的损失,但搜索空间被限制在物理上合理的动力学范围内。与无约束模型相比,这极大地降低了样本复杂度。

基准测试性能:
| 模型类型 | N体问题(10轨道)平均能量误差 | 摆锤(1000秒模拟)相位误差 | 所需训练数据(轨迹数) |
|---|---|---|---|
| 标准神经ODE | 8.7% | 高(发散) | 50 |
| HNN(软约束) | 2.1% | 中等 | 30 |
| 约束HNN(本工作) | 0.05% | 可忽略 | 10 |
| 数值积分器(RK4) | 0.01%(无近似) | 极低 | 不适用 |

*数据要点:* 约束HNN实现了近乎完美的能量守恒,在长期稳定性上比软约束方法高出数个数量级,同时展现出卓越的数据效率。它们在保持神经网络灵活性和可微分特性的同时,逼近了传统数值求解器的精度。

关键参与者与案例研究

这项研究处于多个活跃学术圈的交汇点。Miles Finzi(曾任职于纽约大学,现可能投身工业界研究)是主要开发者,其工作建立在 Greydanus 等人(HNNs 的提出者)的基础研究之上,并与布朗大学 George Em Karniadakis 等领衔的物理信息机器学习社区相呼应。这种约束方法与 Michael BronsteinTaco Cohen 等研究者倡导的几何深度学习浪潮一脉相承,强调构建尊重数据域对称性与结构的网络。

竞争性的技术路径包括:
1. 软约束PINNs: 主流方法,使用英伟达的 Modulus 或原始 PINNs 等框架。灵活但缺乏保证。
2. 可微分物理模拟器: 如用于分子动力学的 `JAX-MD` 或用于机器人的 `Brax` 等项目提供可微分模拟,但它们建立在显式、已知的物理方程之上。
3. 学习型辛积分器: 专注于在已知哈密顿框架内学习更优数值积分方案的研究。

公司战略布局:
| 实体 | 对物理信息AI的定位 | 相关产品/项目 | 战略重点 |
|---|---|---|---|
| 英伟达 | 大规模、软约束框架 | Modulus, SimNet | 推动AI-物理融合在工业数字孪生领域的普及。 |
| DeepMind | 基础突破 + 应用 | AlphaFold, Graph Nets, PDE求解器 | 发现新科学原理并优化复杂系统。 |
| IBM研究院 | 量子+经典科学AI | 加速发现实验室 | 材料科学、化学、混合AI-物理模型。 |
| 初创公司(如 SandboxAQ | 应用型量子启发模拟 | 分子对接、金融建模 | 利用物理感知AI深耕特定垂直领域。 |

*数据要点:* 尽管大型科技公司投资于广泛、应用导向的软约束框架,但约束HNN研究代表了一种更基础、学术驱动的对“可保证正确性”的追求。其应用很可能率先在对模拟保真度有极高要求或失误成本巨大的领域展开,例如航空航天或制药研发。

更多来自 GitHub

Genie 从头设计蛋白质:AI 闯入未知生物空间GitHub 上的 northws/genie 仓库,是对 MIT aqlaboratory 开发的原始 Genie 模型的一次忠实且优化的复现。Genie 是一种基于扩散的生成模型,能够完全从零创建全新的蛋白质骨架结构,无需依赖任何现有蛋ESM-2与ESMFold:Meta开源蛋白质AI重塑药物发现格局Meta FAIR的进化尺度建模(ESM)项目代表了计算生物学领域的范式转变。与传统基于物理或同源建模的方法不同,ESM将蛋白质序列视为一种语言,直接从数百万条天然序列中学习进化与功能模式。旗舰模型ESM-2拥有高达30亿参数,在零样本突变OpenFold:开源AlphaFold 2复刻版,或将重塑药物研发格局OpenFold并非简单的克隆品,而是哥伦比亚大学Mohammed AlQuraishi博士实验室精心打造的高保真PyTorch版AlphaFold 2复刻,从底层设计上实现了可训练、内存高效与GPU友好。原始AlphaFold 2仅发布推查看来源专题页GitHub 已收录 1844 篇文章

时间归档

March 20262347 篇已发布文章

延伸阅读

物理信息神经网络:如何重塑科学计算的未来物理信息神经网络(PINNs)正引发科学计算领域的范式革命。它将深度学习与基础物理定律深度融合,通过将偏微分方程直接编码进神经网络损失函数,以前所未有的数据效率攻克工程与科学中的诸多难题。DifferentialEquations.jl:重塑科学计算的SciML引擎DifferentialEquations.jl 已成为科学机器学习(SciML)生态系统的计算基石,为求解常微分方程、随机微分方程、延迟微分方程和微分代数方程提供了统一且高性能的框架。这个基于 Julia 的原生项目凭借即时编译和自动微分哈密顿神经网络:物理启发的AI如何重塑科学机器学习哈密顿神经网络标志着人工智能与物理定律交互方式的范式变革。通过将哈密顿力学的守恒原理显式编码进神经网络架构,该方法创建的模型既能从数据中学习,又严格遵循基础物理规律。由此诞生的AI不仅数据效率惊人提升,其物理合理性更为科学模拟开辟了新路径。神经算子:突破有限维度的AI架构,重新定义科学计算神经算子框架标志着科学机器学习领域的根本性突破。它超越了传统的逐点神经网络,能够学习无限维函数空间之间的映射关系。这一架构使AI模型能以前所未有的速度求解偏微分方程描述的复杂物理系统,并具备跨分辨率的卓越泛化能力。

常见问题

GitHub 热点“Constrained Hamiltonian Neural Networks: The Hard Constraint Revolution in Physics-Informed AI”主要讲了什么?

The GitHub repository mfinzi/constrained-hamiltonian-neural-networks represents a significant methodological shift within the physics-informed neural network (PINN) landscape. Deve…

这个 GitHub 项目在“constrained hamiltonian neural network tutorial”上为什么会引发关注?

The core innovation of constrained Hamiltonian neural networks (CHNNs) lies in its architectural enforcement of symplectic structure. A Hamiltonian system is described by coordinates \(q\) (position) and momenta \(p\), w…

从“hard constraint vs soft constraint physics informed neural networks”看,这个 GitHub 项目的热度表现如何?

当前相关 GitHub 项目总星标约为 115,近一日增长约为 0,这说明它在开源社区具有较强讨论度和扩散能力。