技术深度解析
五角大楼与Anthropic冲突的核心并非官僚程序,而是架构理念。它聚焦于Anthropic的安全约束型AI范式与五角大楼对主权化、可塑且操作无限制的智能系统需求之间的根本性不兼容。
宪法AI vs. 军事级AI: Anthropic的标志性技术贡献是宪法AI(CAI),这是一种训练方法论,旨在使AI行为与一套书面原则('宪法')对齐,而不过度依赖可能嘈杂且难以扩展的人类反馈。该过程包含两个阶段:1)监督学习: 模型生成回应,随后由另一个AI助手根据宪法原则(例如'选择最支持生命、自由与人身安全的回应')进行批判和修订。2)基于AI反馈的强化学习(RLAIF): 修订后的回应被用于训练偏好模型,该模型随后通过强化学习指导最终模型的训练。
这种架构本质上创建了一个'价值观锁定'系统。模型行为受其宪法约束,其中包括禁止造成伤害、提供危险信息或侵犯隐私的原则。对于军事规划者而言,这构成了不可接受的限制。一个拒绝考虑某些动能选项的战术规划AI、一个会删减被视为有害信息的情报分析工具,或一个不愿提议进攻性措施的网络作战助手,在操作层面都是无用的。
主权AI堆栈的迫切性: 五角大楼的回应是加速开发主权AI堆栈——一个从数据摄取到模型部署完全受控的端到端流程,构建于通过安全审查的基础设施之上,并为特定军事操作领域(MILOPs)设计。该堆栈优先考虑:
- 架构控制: 为特定硬件(如加固边缘设备)和任务配置文件修改模型架构(例如专家混合路由、注意力机制)的能力。
- 数据主权: 使用机密、特定领域数据集(卫星图像、信号情报、战场通信)进行训练,完全避免商业训练任务可能带来的泄露或污染风险。
- 可预测行为: 模型在定义的操作范围内执行命令,没有可能在高压场景下发生不可预测故障的伦理覆盖机制。
- 可信供应链: 硬件(来自NVIDIA或AMD/Cerebras等替代供应商的GPU)、软件框架和云基础设施均需经过可信实体审查和拥有。
关键的开源项目正作为该主权堆栈的潜在构建模块在国防圈内获得关注。Meta的LLaMA系列模型因其宽松的许可和架构透明度,常被用作在安全环境中进行微调的基础模型。Voyager GitHub仓库(github.com/MineDojo/Voyager)——一个由LLM驱动的具身终身学习智能体—— exemplifies了军方希望适配的那种自主、目标导向的AI架构,尽管需要剥离其安全层。另一个例子是OpenAI的Triton语言和编译器(github.com/openai/triton),它提供了低层GPU编程的灵活性,这对于在专用国防硬件上优化模型至关重要。
| AI特性 | Anthropic/宪法AI范式 | 五角大楼的主权AI要求 |
|---|---|---|
| 核心目标 | 有益、诚实、无害(HHH) | 有效、可适应、可控制(EAC) |
| 训练治理 | 固定、透明的宪法 | 机密、任务特定的指令 |
| 行为边界 | 硬编码的伦理约束 | 由操作员设定的情境化交战规则 |
| 部署模式 | 带有使用政策的云API | 本地部署、物理隔离、可边缘部署 |
| 供应链 | 全球云提供商(AWS)、商业GPU | 可信代工厂、安全审查设施、主权云 |
核心结论: 上表揭示了第一性原理的根本错位。五角大楼并非在寻求商业模型的'更安全'版本;它需要的是一类从根本上为特定领域重建的AI智能体,在这个领域中,'伤害'是一个战术变量,而非绝对禁令。
关键参与者与案例研究
Anthropic与五角大楼的裂痕是更广泛格局重组中最公开的表征。几个关键实体正以不同的策略应对这一新格局。
Anthropic: 由前OpenAI安全研究员达里奥·阿莫代和丹妮拉·阿莫代创立,Anthropic将其身份押注于可扩展的AI安全。其宪法AI既是一项技术解决方案,也是一项公开承诺。这一原则性立场吸引了谷歌和Salesforce等集团的大量投资,但如今也构成了战略上的制约。