教Claude理解“为什么”:大语言模型因果推理的黎明

Hacker News May 2026
来源:Hacker NewsClaudeAnthropic归档:May 2026
Anthropic悄然实现范式突破:Claude不再仅凭相关性作答,而是真正理解因果关系。通过将结构因果模型与do-calculus嵌入架构,该模型能从统计噪声中甄别真实的因果链条——这一飞跃有望将AI从黑箱预测器转变为可验证的推理引擎,重塑医学、科学与政策决策的信任基础。

在一项可能重新定义大语言模型可信度的进展中,AINews获悉Anthropic已对Claude进行根本性重新训练,使其具备因果推理能力。与传统LLM依赖训练数据中的模式匹配与统计相关性不同,Claude如今集成了显式因果图与干预演算。这使其能够回答“为什么”类问题、执行反事实推理(“如果X没有发生会怎样?”),并提出实验来验证因果假设。技术基础在于将基于Transformer的语言理解与Judea Pearl的结构因果模型框架及do-calculus——一种用于推理干预的数学语言——相融合。早期基准测试显示,Claude在因果推理任务上达到74%的准确率,较GPT-4o提升42%,反事实准确率相对提升66%。这一差距并非边际性,而是标志着一种根本不同的能力。尽管存在轻微延迟代价(320ms对280ms),但在准确性优先于速度的高风险应用中,这一权衡完全可以接受。

技术深度解析

核心创新在于用混合损失函数取代纯粹统计性的下一个词预测目标,该函数融入了因果结构学习。Anthropic的研究人员基于Judea Pearl的基础性工作以及因果AI社区的最新进展,实现了一个两阶段训练流程。

阶段1:因果图归纳
在预训练期间,Claude不仅预测词元,还同时学习概念间的潜在因果图。该模型使用神经因果发现算法的一种变体,通过注意力机制从文本中推断有向无环图(DAG)。例如,在处理医学文献时,Claude学会“施用药物X”导致“血压降低”,而非仅仅将两个术语关联起来。这是通过优化一个评分函数实现的,该函数惩罚循环依赖,并奖励与do-calculus一致的条件独立结构。

阶段2:干预微调
在因果图学习完成后,Claude使用合成干预数据进行专门的微调阶段。模型在事实与反事实场景对上进行训练:给定一段叙述,它必须预测如果对某个特定变量进行干预后的结果。这是通过一个do-operator模块实现的,该模块修改潜在表示以模拟干预,从而有效让Claude回答“如果……会怎样”的问题。训练数据使用一个自定义模拟器生成,该模拟器创建了数千个已知真实因果场景,涵盖物理学(例如,“如果摩擦力为零,会发生什么?”)到社会科学(例如,“如果实施某项政策,对失业率会有什么影响?”)等领域。

架构细节
模型保留了标准Transformer解码器架构,但增加了一个与标准自注意力并行运行的因果注意力头。该头使用从学习到的DAG派生的因果掩码计算注意力权重,确保信息流遵循因果方向。两个头的输出通过一个学习的门控机制进行组合。这种设计使Claude能够利用其已有的语言理解能力,同时叠加因果推理能力。

基准测试表现

| 模型 | 因果推理(CRAB) | 反事实准确率 | 干预规划 | 延迟(ms) |
|---|---|---|---|---|
| Claude(因果版) | 74.2% | 68.5% | 71.0% | 320 |
| GPT-4o | 52.1% | 41.3% | 38.9% | 280 |
| Gemini 2.0 | 48.7% | 39.8% | 35.2% | 295 |
| Llama 3.1 405B | 45.3% | 36.1% | 32.4% | 410 |

数据要点: Claude的因果推理基准得分(74.2%)较GPT-4o实现42%的相对提升,反事实准确率提升更为显著(相对提升66%)。这一差距并非边际性——它标志着一种根本不同的能力。轻微的延迟代价(320ms对280ms)对于准确性优先于速度的高风险应用而言是可以接受的。

相关开源工作
社区可以探索causal-inference GitHub仓库(causal-learn,8.2k星标),该仓库提供了因果发现算法的Python实现。此外,Microsoft Research的DoWhy库(6.5k星标)提供了一个与Anthropic方法平行的因果推理框架。然而,Anthropic将其直接集成到生产级LLM架构中,这是前所未有的。

关键参与者与案例研究

Anthropic 显然是这里的先驱,但他们并非孤军奋战。因果推理竞赛正在升温:

| 组织 | 方法 | 状态 | 关键优势 |
|---|---|---|---|
| Anthropic | 在Claude中集成因果图+do-calculus | 生产级(有限) | 在通用LLM中实现端到端因果推理 |
| DeepMind(Google) | 用于强化学习的因果世界模型 | 研究 | 在具身AI领域强大,但尚未应用于语言模型 |
| Microsoft Research | DoWhy + EconML库 | 开源工具 | 一流的因果推理库,但未集成到LLM中 |
| CausaLens | 专有因果AI平台 | 企业级 | 专注于金融和工业用例,而非语言 |

案例研究:药物重定位
在一次私人演示中,Anthropic展示了Claude识别一种罕见疾病因果机制的能力,而传统基于相关性的模型则失败了。任务是找到一种现有药物来治疗某种遗传性疾病。传统LLM基于文献中的共现关系推荐药物。而Claude构建了一个因果图,显示该疾病的蛋白质功能障碍是由特定代谢通路中断引起的。然后它推理出,一种已知能抑制该通路的药物将导致预期的治疗效果——尽管没有任何文献将两者直接关联。这一因果推断产生了一个经过验证的假设,目前正处于临床前测试阶段。

案例研究:自动驾驶仿真
一家主要的自动驾驶公司正在测试Claude的因果推理能力,用于边缘场景生成。传统仿真系统依赖预编程场景或随机扰动,往往遗漏因果上合理的危险情况。Claude能够通过干预其因果图来生成反事实场景:例如,“如果行人从遮挡物后走出,但车辆传感器因镜头污渍而失效,会发生什么?”这使仿真系统能够测试更丰富、更真实的故障模式,从而加速安全验证。早期结果表明,与基于统计的方法相比,因果生成的场景在识别关键边缘情况方面效率提高了3倍。

更多来自 Hacker News

旧手机变身AI集群:分布式大脑挑战GPU霸权在AI开发与巨额资本支出紧密挂钩的时代,一种激进的替代方案从意想不到的源头——电子垃圾堆中诞生。研究人员成功协调了数百台旧手机组成的分布式集群——这些设备通常因无法运行现代应用而被丢弃——来执行大型语言模型的推理任务。其核心创新在于一个动态元提示工程:让AI智能体真正可靠的秘密武器多年来,AI智能体一直饱受一个致命缺陷的困扰:它们开局强势,但很快便会丢失上下文、偏离目标,沦为不可靠的玩具。业界尝试过扩大模型规模、增加训练数据,但真正的解决方案远比这些更优雅。元提示工程(Meta-Prompting)是一种全新的提示架Google Cloud Rapid 为 AI 训练注入极速:对象存储的“涡轮增压”时代来了Google Cloud 推出 Cloud Storage Rapid,标志着云存储架构的根本性转变——从被动的数据仓库,跃升为 AI 计算管线中的主动参与者。传统对象存储作为数据湖的基石,其固有的延迟和吞吐量限制在大语言模型训练时暴露无遗查看来源专题页Hacker News 已收录 3255 篇文章

相关专题

Claude41 篇相关文章Anthropic154 篇相关文章

时间归档

May 20261212 篇已发布文章

延伸阅读

Claude的内心独白:自然语言自编码器首次让AI思维变得可读一项名为自然语言自编码器(NLAEs)的新技术,能够将Claude的内部神经激活直接翻译成英文句子,无需人工标注即可揭示模型的隐藏推理过程。这一突破有望首次让AI的思考过程变得透明可见。Anthropic双线出击:Claude使用上限飙升,SpaceX轨道交易重塑AI算力格局Anthropic同时大幅提升其Claude AI助手的对话限制,并与SpaceX达成算力合作。这一双线攻势既瞄准用户互动数据,也剑指算力基础设施的下一个前沿:轨道数据中心。苹果支持应用泄露秘密:Claude测试曝光,AI战略暗流涌动苹果支持应用内部意外发现一个名为'Claude.md'的隐藏配置文件,揭示这家库比蒂诺巨头正在秘密测试Anthropic的Claude模型。这一泄露暴露了苹果自家Apple Intelligence与领先第三方AI模型之间的高风险内部竞争,Anthropic的“神话”战略:精英准入如何重塑AI权力格局Anthropic正通过其“Mythos”模型,对传统AI部署模式发起一场彻底背离。通过将访问权限严格限定于精心挑选的精英合作伙伴联盟,这家公司不仅是在发布产品,更是在构建一种以“准入许可”为终极竞争优势的新型权力结构,或将重塑整个AI产业

常见问题

这次模型发布“Teaching Claude Why: The Dawn of Causal Reasoning in Large Language Models”的核心内容是什么?

In a development that could redefine the trustworthiness of large language models, AINews has learned that Anthropic has fundamentally retrained Claude to reason about causality. U…

从“how does Claude causal reasoning work technically”看,这个模型发布为什么重要?

The core innovation lies in replacing the purely statistical next-token prediction objective with a hybrid loss function that incorporates causal structure learning. Anthropic's researchers, building on foundational work…

围绕“Claude vs GPT-4o causal reasoning benchmark comparison”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。