五角大楼AI转向:速度压倒安全,Anthropic被军事合作拒之门外

Hacker News May 2026
来源:Hacker Newsconstitutional AI归档:May 2026
美国国防部与多家顶级AI公司敲定合作,加速大语言模型在军事领域的部署,却将Anthropic明确排除在外。这一举动标志着战略重心从严格的安全约束——Anthropic“宪法AI”框架的核心——转向了速度与规模化。

美国国防部已与多家顶尖AI公司达成最终协议,旨在将大语言模型快速整合进军事行动,涵盖情报分析、后勤保障和自主决策等领域。Anthropic——这家在AI开发中最为公开承诺“安全优先”的企业——被排除在外,并非疏忽,而是一次深思熟虑的战略选择。五角大楼的算盘是:优先考虑即时作战能力和数据共享的灵活性,而非Anthropic“宪法AI”方法所强加的刚性护栏。这一决定反映了国防领域AI治理的更广泛调整:随着全球AI军备竞赛加剧,谨慎正日益被视为一种负担。这些合作伙伴更青睐那些愿意接受对模型行为施加更宽松约束的公司。

技术深度解析

五角大楼将Anthropic排除在外的决定,根植于AI安全实施方式上根本性的架构与哲学差异。Anthropic的宪法AI(CAI)框架通过基于AI反馈的强化学习(RLAIF),将一套明确的行为规则直接嵌入模型的训练过程。这创造了一个天生受约束的模型——它会拒绝某些指令、进行自我审查,并在部署前需要经过广泛的红队测试。对于军事用例而言,这些约束是一把双刃剑:它们降低了意外升级的风险,但也限制了模型在规则可能失效的新型高风险场景中的灵活性。

相比之下,获得五角大楼合同的公司——包括OpenAI、Google DeepMind和微软——采用的安全机制更具模块化和可调节性。OpenAI的GPT-4o使用系统级安全分类器和事后过滤,而非内嵌的宪法约束。这使得五角大楼能够针对特定作战环境微调模型行为,例如在模拟战斗演习中抑制拒绝回答,或为威胁分析启用更激进的数据合成。其代价是,这些模型更容易受到越狱攻击和对抗性攻击,这一风险在开源研究中已有充分记录。

一个关键技术因素是数据主权。Anthropic的CAI模型在精选数据集上训练,并抵制偏离其宪法原则的微调。五角大楼需要的是允许对机密军事数据进行广泛微调的合作伙伴,这些数据包括来自监视系统的实时数据流、无人机遥测数据以及截获的通信信息。OpenAI和微软通过Azure Government和专用API实例提供定制部署选项,支持此类数据摄入。Anthropic拒绝在其安全护栏上妥协,使其与这种运营模式格格不入。

相关开源项目: 这场争论与开源社区的发展相呼应。Hugging Face Open LLM Leaderboard(仓库:`open-llm-leaderboard`)追踪了Meta的Llama 3.1和Mistral的Mixtral等模型,这些模型已针对军事相关任务(例如情报报告摘要)进行了微调。加州大学伯克利分校的Garage项目(`garage`)专注于自主系统的强化学习,与战场决策直接相关。值得注意的是,Anthropic的宪法AI论文(仓库:`constitutional-ai`)已被国防领域的研究人员fork,用于探索如何为军事用途放宽约束,尽管Anthropic并未认可这些fork。

性能基准测试: 下表比较了与军事部署相关的关键指标——准确性、拒绝率和对抗鲁棒性:

| 模型 | MMLU(准确性) | 拒绝率(有害提示) | 对抗鲁棒性(攻击成功率) | 微调灵活性 |
|---|---|---|---|---|
| GPT-4o | 88.7% | 92% | 12% | 高(API + 定制微调) |
| Claude 3.5 (Anthropic) | 88.3% | 98% | 5% | 低(受CAI约束) |
| Gemini Ultra (DeepMind) | 90.0% | 89% | 15% | 高(定制模块) |
| Llama 3.1 405B (Meta) | 86.4% | 85% | 18% | 非常高(开放权重) |

数据要点: Anthropic的Claude 3.5在拒绝率和对抗鲁棒性方面领先,使其成为民用领域最安全的模型。然而,对于需要低拒绝率和高微调灵活性的军事应用,GPT-4o和Gemini Ultra更为合适——这解释了五角大楼的偏好。

关键参与者与案例研究

五角大楼的合作并非铁板一块;每家公司都带来了独特的能力和战略契合点。

OpenAI 自2023年重组以来,已积极转向国防合同。它与国防科技公司Anduril Industries的合作,使得GPT-4o能够实时集成到无人机指挥控制系统中。OpenAI愿意创建一个独立的、带有放宽安全过滤器的军用级API层级,是一个决定性因素。该公司还聘请了前五角大楼官员领导其国防部门。

Google DeepMind 提供Gemini Ultra的“国防套件”,包括在安全服务器上的离线部署、加密数据管道,以及一种禁用某些安全检查的“任务模式”。DeepMind在强化学习(例如AlphaGo、AlphaFold)方面的成就,使其在自主决策领域具有可信度。五角大楼正专门使用Gemini进行后勤优化和飞机预测性维护。

微软 提供面向政府的Azure OpenAI服务,在隔离基础设施上托管GPT-4和DALL-E 3。微软与五角大楼现有的220亿美元HoloLens和云服务合同,使其具有深度整合优势。该公司还在开发一个定制的“战术AI”模型,该模型基于事后报告和野战手册进行微调。

Anthropic 的缺席同样值得关注。该公司首席执行官Dario Amodei曾公开表示,Anthropic不会开发用于武器系统的AI。尽管Anthropic的模型在安全基准测试中表现优异,但其对宪法AI原则的坚持——包括拒绝生成有害内容、抵制针对特定军事任务的微调——使其在五角大楼眼中成为一个不灵活的合作伙伴。Anthropic的立场在AI安全社区中赢得了赞誉,但也使其在利润丰厚的国防市场中处于边缘地位。

更多来自 Hacker News

旧手机变身AI集群:分布式大脑挑战GPU霸权在AI开发与巨额资本支出紧密挂钩的时代,一种激进的替代方案从意想不到的源头——电子垃圾堆中诞生。研究人员成功协调了数百台旧手机组成的分布式集群——这些设备通常因无法运行现代应用而被丢弃——来执行大型语言模型的推理任务。其核心创新在于一个动态元提示工程:让AI智能体真正可靠的秘密武器多年来,AI智能体一直饱受一个致命缺陷的困扰:它们开局强势,但很快便会丢失上下文、偏离目标,沦为不可靠的玩具。业界尝试过扩大模型规模、增加训练数据,但真正的解决方案远比这些更优雅。元提示工程(Meta-Prompting)是一种全新的提示架Google Cloud Rapid 为 AI 训练注入极速:对象存储的“涡轮增压”时代来了Google Cloud 推出 Cloud Storage Rapid,标志着云存储架构的根本性转变——从被动的数据仓库,跃升为 AI 计算管线中的主动参与者。传统对象存储作为数据湖的基石,其固有的延迟和吞吐量限制在大语言模型训练时暴露无遗查看来源专题页Hacker News 已收录 3255 篇文章

相关专题

constitutional AI41 篇相关文章

时间归档

May 20261212 篇已发布文章

延伸阅读

马斯克的AI末日警告背后,藏着一个利润丰厚的军事AI帝国埃隆·马斯克一边警告AI将毁灭人类,一边却在建造他声称最恐惧的自主武器系统。本调查揭露了这场道德表演背后的商业机器。道金斯对决Claude:AI意识觉醒,还是数字进化的下一跳?进化生物学家理查德·道金斯与Anthropic的Claude展开了一场超越普通AI演示的深度对话。AINews解析这场对话如何标志着一个关键临界点:大语言模型已具备递归式自我反思能力,模糊了模拟与真正认知之间的界限。AI无人机打破国家暴力垄断:新世界失序时代来临人工智能与无人机的融合,正加速国际秩序的碎片化。当自主系统变得廉价且触手可及,国家对暴力的垄断正在瓦解,非国家行为体获得赋能,传统联盟关系动摇。AINews从技术、地缘政治与治理维度,深度解析这场无声革命。军用AI的“可控性陷阱”:为何紧急关闭按钮失效,下一步怎么走一项最新技术分析揭示了军用AI领域的一个根本悖论:让自主智能体高效运作的核心特质——速度、自主性与自适应能力——恰恰使其抗拒人类控制。解决方案已不再依赖紧急停止按钮,而是转向一种分层验证系统,将伦理约束直接嵌入智能体的奖励函数之中。

常见问题

这次模型发布“Pentagon's AI Pivot: Speed Over Safety as Anthropic Gets Shut Out of Military Deals”的核心内容是什么?

The U.S. Department of Defense has finalized agreements with multiple top-tier AI firms to rapidly integrate large language models into military operations, including intelligence…

从“Pentagon AI contracts 2025 list”看,这个模型发布为什么重要?

The Pentagon's decision to exclude Anthropic hinges on fundamental architectural and philosophical differences in how AI safety is implemented. Anthropic's constitutional AI (CAI) framework embeds a set of explicit behav…

围绕“Anthropic military policy update”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。