流学习者崛起:物理到物理AI如何颠覆科学模拟范式

一类名为“流学习者”的新型AI模型正突破传统神经PDE求解器的根本局限。通过直接学习物理状态间的映射关系而非拟合离散数据点,这种“物理到物理”范式有望实现以往仅超级计算机才能完成的高保真实时模拟,或将引发堪比Transformer的革命浪潮。

科学AI领域正在经历一场范式迁移——从主流的物理信息神经网络(PINNs)向更宏大的目标演进:直接实现物理到物理的映射翻译。PINNs虽成功将物理定律作为软约束嵌入损失函数,却长期受困于优化病态、频谱偏差以及难以扩展至高维多尺度问题(如湍流建模、量子化学等领域的典型挑战),这暴露出“数据+约束”方法的天花板。

新兴的“流学习者”概念提出了根本性重构:不再要求神经网络逼近微分方程在离散点上的解,而是学习一个将输入函数空间(如初始条件、材料参数)映射到输出函数空间(如解场)的算子。这种思路将AI从函数逼近提升至算子学习层面,其核心突破在于泛化能力:经过训练的流学习者能对训练集外的新输入函数快速预测解场,计算成本往往仅为传统高保真数值求解器的零头。

技术实现上,傅里叶神经算子(FNO)、DeepONet等框架通过在无限维函数空间建立映射,尤其擅长捕捉PDE求解所需的长程依赖关系;针对不规则几何域,DeepMind的MeshGraphNets等图神经网络将网格节点与边视为图结构进行消息传递,实现从时刻T到T+Δt的物理状态直接推演。当前标杆测试集中在达西流与不同雷诺数下的纳维-斯托克斯方程,性能指标包括相对于真实求解器的L2误差与推理加速比。数据显示,专用流学习者可实现数千倍加速,但泛化性与数据需求仍是挑战;FNO在规则网格上平衡性突出;而PINNs虽理论优雅,却因实时模拟所需的速度短板凸显出现有范式的转型必然。

这场变革由学界先锋、科技巨头与初创企业共同推动:Caltech的ANONYMOUS实验室(Anima Anandkumar教授主导)是神经算子与FNO的理论奠基者;MIT团队致力于将算子学习融入航空航天的数字孪生体系;NVIDIA通过Modulus框架与FourCastNet全球天气预报模型推动技术产品化,后者在中程预报中实现百万倍加速;Google DeepMind的MeshGraphNets与GraphCast则展现端到端数据驱动模拟器的强大潜力。随着物理到物理AI在气候科学、能源、材料等领域的渗透,科学发现与工程设计的效率边界正在被重新定义。

技术深潜

流学习者的技术本质是从函数逼近转向算子学习。传统PINNs参数化函数\(u(x, t; \theta)\),训练其满足PDE算子\(\mathcal{N}(u)=0\),损失函数结合数据拟合度与PDE残差。而流学习者直接学习算子\(\mathcal{G}_{\theta}: \mathcal{A} \to \mathcal{U}\),实现从输入函数空间(如初始条件、材料参数)到输出函数空间(如解场)的映射。

推动这一转型的关键架构创新包括:

1. 神经算子框架:以傅里叶神经算子(FNO)DeepONet为代表的框架学习无限维函数空间之间的映射。FNO在傅里叶空间执行卷积运算,能高效学习PDE求解至关重要的长程依赖关系。GitHub仓库`neuraloperator`(获超1.2k星标)提供了PyTorch实现,近期已扩展至通过图核网络处理复杂几何结构。
2. 几何感知架构:针对不规则计算域,图神经网络(GNNs)与基于网格的方法不可或缺。DeepMind的`MeshGraphNets`框架(最初用于流体与固体力学)将网格节点与边视为图结构,通过消息传递更新节点状态,实现从时刻T到T+Δt的物理状态直接映射,是典型的物理到物理模型。
3. 混合符号-数值学习:MIT研究团队的`PISCO`(物理信息符号认知算子)等项目尝试融合神经算子与符号回归,不仅映射物理状态,更可能发现映射本身紧凑且可解释的表示形式。
4. 训练范式:流学习者通常以监督学习方式,基于高保真数值求解器(如有限元法、谱方法)生成的配对数据\((a_i, u_i)\)进行训练。其突破性在于泛化能力:训练完备的流学习者能对训练集外的新输入函数\(a\)快速预测解场,计算成本往往远低于生成训练数据所用的求解器。

这些模型的关键基准测试包括达西流问题与不同雷诺数下的纳维-斯托克斯方程。性能评估指标主要为相对于真实求解器结果的相对L2误差,以及更关键的推理加速比。

| 模型/架构 | 测试问题(数据集) | 相对L2误差 | 推理加速比(相较于求解器) | 核心局限 |
|---|---|---|---|---|
| FNO(二维) | 纳维-斯托克斯方程(ν=1e-3) | ~1.5% | 1000倍 | 对极高雷诺数(湍流)处理困难 |
| MeshGraphNets | 翼型绕流(可变攻角) | ~3.2% | 5000倍 | 新几何需重新网格划分;训练数据需求量大 |
| 经典PINN | 伯格斯方程 | ~0.8% | 1倍(更慢) | 梯度剧烈时优化失败;扩展性差 |
| U-Net(基线) | 达西流 | ~8.7% | 200倍 | 对新系数场泛化能力弱 |

数据启示:上表揭示了核心权衡——MeshGraphNets等专用流学习者实现惊人加速,但泛化性较弱且数据饥渴;FNO在规则网格上提供了精度与速度的平衡;PINNs虽理论优雅,却在实时模拟关键的速度指标上失败,这解释了领域为何向算子学习范式迁移。

关键参与者与案例研究

流学习者的发展是学术先驱、科技巨头与雄心勃勃的初创企业之间的协同竞赛。

学术先锋:
* Caltech的ANONYMOUS实验室:由Anima Anandkumar教授领导,该团队是神经算子与FNO的主要推动力量。其工作聚焦于数学保证性及在气候与能源领域大规模三维问题中的扩展应用。
* MIT研究计划:Karen Willcox教授等研究者倡导*数字孪生*理念,并为航空航天应用开发了模型降阶与算子学习技术,尤其在与NASA合作快速气动设计方面成果显著。

企业研发:
* NVIDIA:通过其Modulus框架与FourCastNet(基于类FNO架构的全球天气预报模型),NVIDIA正将此项科学技术产品化。Modulus提供训练物理-ML模型的工具集,而FourCastNet在中程天气预报上实现了相较于数值天气预报百万倍的加速,成为物理到物理AI成功的里程碑案例。
* Google DeepMind:其在MeshGraphNets及后续模型如GraphCast(一种基于图的竞争性天气模型)上的工作,显示出对学习型模拟器的深度投入。DeepMind的方法常强调端到端数据驱动学习,相较于学术研究有时更少依赖显式的物理硬编码。
* Hugging Face:作为AI社区平台,其通过开源模型库与协作环境,正加速流学习者等前沿科学AI模型的传播与应用生态构建。

延伸阅读

热力学神经网络:物理学如何成为AI的母语人工智能与物理学的关系正在经历根本性变革。这一领域正超越仅将物理方程作为约束条件的传统范式,转向构建其架构本身便诞生于热力学原理的神经网络。这场变革预示着AI将不再仅仅是近似模拟物理,而是内在地掌握其语言,从而实现对复杂系统的可靠仿真。UniFluids横空出世:通用AI模型能否统一物理仿真?名为UniFluids的新型AI框架正挑战数十年来的专业科学计算范式。它通过训练单一模型求解海量物理方程,承诺将仿真从一门手艺转变为可规模化服务。这一突破或将加速工程、生物医学与气候科学领域的发现进程。图基础模型掀起无线网络革命,实现实时自主资源分配无线网络正站在智能化变革的临界点。针对资源分配的图基础模型新兴研究,将整个网络基础设施视为一个动态、可学习的图,有望解决超密集网络中的实时优化危机。这一转变或将催生真正能根据不同目标自我优化的自主网络,为6G时代奠定关键基石。Flux Attention:动态混合注意力机制,打破LLM长上下文效率瓶颈一种名为Flux Attention的新型动态混合注意力机制正崭露头角,有望解决大语言模型处理长上下文时计算成本过高的问题。它通过基于实时上下文需求,在完整注意力与稀疏注意力之间智能动态分配资源,承诺大幅降低长文档和多轮对话的推理成本。

常见问题

这次模型发布“Flow Learners Emerge: How Physics-to-Physics AI is Revolutionizing Scientific Simulation”的核心内容是什么?

The scientific AI landscape is undergoing a foundational shift, moving beyond the dominant paradigm of Physics-Informed Neural Networks (PINNs) toward a more ambitious goal: direct…

从“FNO vs GraphCast accuracy benchmark weather”看,这个模型发布为什么重要?

The technical essence of Flow Learners lies in moving from function approximation to operator learning. Traditional PINNs parameterize a function \(u(x, t; \theta)\) that is trained to satisfy \(\mathcal{N}(u)=0\), where…

围绕“how to train a physics informed neural operator”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。