LLM发现FreeBSD漏洞,CHERI硬件将其扼杀:安全范式正在颠覆

Hacker News April 2026
来源:Hacker NewsLLM归档:April 2026
大语言模型首次在FreeBSD内核中发现致命内存损坏漏洞,但攻击在CHERI硬件层面被彻底阻断。这一里程碑证明:硬件原生的安全机制,能在AI发现的零日漏洞被利用之前,将其化为无形。

在系统安全领域的一个分水岭时刻,研究人员展示了一个经典的内存损坏漏洞——由大语言模型通过系统性代码审计在FreeBSD内核中发现——被CHERI(能力硬件增强RISC指令集)架构完全封锁。该漏洞是网络栈中的一个释放后使用(use-after-free)缺陷,在传统x86或ARM系统上,攻击者可借此获得任意代码执行权限。然而在CHERI硬件上,利用尝试在指令层面即告失败:处理器强制执行细粒度的内存权限与能力令牌验证,攻击者既无法伪造指针,也无法访问未授权的内存区域。这是公开记录中首个AI发现漏洞、但被硬件安全机制直接化解的案例,标志着从“软件修补”到“硬件免疫”的安全范式开始转变。

技术深度解析

此次涉及的漏洞是FreeBSD TCP栈中一个经典的释放后使用(use-after-free)缺陷,具体位于`tcp_usrreq`函数内。一个大语言模型——很可能是GPT-4的变体或经过微调的代码分析模型——扫描内核源码后,发现了一条路径:套接字缓冲区(`mbuf`)被释放,但一个悬空指针仍然保留在控制块中可被访问。在标准架构上,攻击者可以触发这个竞态条件,用可控数据覆盖已释放的内存,劫持指令指针,并以内核权限执行任意代码。

CHERI的防御机制在微架构层面运作。其核心创新是能力(capability):一个128位或256位的令牌,将指针与不可伪造的边界、权限和有效性元数据绑定在一起。每一次内存访问都会对照能力的授权范围进行检查。在此案例中,当悬空指针被解引用时,CHERI处理器的能力协处理器检测到该能力已被撤销(因为底层内存已被释放),随即触发一个硬件异常——不是可被拦截的软件信号,而是一个处理器级陷阱,立即终止执行。

关键架构组件:
- 能力协处理器:集成在CPU流水线中,对每一次加载/存储操作都对照能力寄存器进行验证。
- 单调性:能力只能被收窄(减少权限),绝不能放宽,从而防止权限提升。
- 隔离分区:内核本身被划分为细粒度的隔离区,每个区拥有独立的能力表,因此即使一个内核漏洞也无法破坏其他分区。

对于关注开源实现的读者,CHERI LLVM工具链(GitHub: `CTSRD-CHERI/llvm-project`,约1,200星)提供编译器支持,而CHERI FreeBSD(GitHub: `CTSRD-CHERI/cheribsd`,约800星)是参考操作系统移植版。Arm的Morello开发板(CHERI原型)可用于测试,但生产级硬件仍然有限。

| 指标 | 标准RISC-V | CHERI-RISC-V | 提升倍数 |
|---|---|---|---|
| 可被利用的内存安全CVE | ~100% | ~0%(理论上) | 无限 |
| 性能开销(SPEC CPU 2017) | 基准线 | 2-5% | 可忽略 |
| 代码体积增加 | 基准线 | 3-8% | 可接受 |
| 硬件面积开销(估算) | 基准线 | 5-10% | 中等 |
| 部署复杂度 | 低 | 高(需新芯片) | — |

数据要点: CHERI的性能开销极低(2-5%),相比之下,地址空间布局随机化(ASLR)或控制流完整性(CFI)等纯软件缓解措施可能带来10-30%的开销,且仍会留下侧信道攻击面。代价是硬件成本和部署惯性,但对于云服务提供商而言,消除整类漏洞利用方式足以证明这笔投资的合理性。

关键参与者与案例研究

CHERI项目起源于剑桥大学计算机实验室,由Robert Watson教授领导,SRI InternationalArm Research做出了重大贡献。Arm的Morello计划(2021-2024年)生产了一款原型CPU和开发板,专门用于在真实场景中评估CHERI。FreeBSD的移植工作由剑桥大学与FreeBSD基金会合作完成。

在AI方面,用于漏洞发现的大语言模型很可能是一个专门的代码分析模型。目前已有数家初创公司和研究团队部署LLM进行系统性漏洞狩猎:
- Chainguard 使用LLM审计开源软件包。
- Socket.dev 利用AI进行供应链安全扫描。
- Palo Alto Networks 已展示基于LLM的模糊测试流水线。

| 实体 | 角色 | 关键贡献 | 状态 |
|---|---|---|---|
| 剑桥大学 | 研究主导 | CHERI架构、FreeBSD移植 | 活跃,学术机构 |
| SRI International | 联合开发者 | 形式化验证、安全策略 | 活跃 |
| Arm Research | 硬件合作伙伴 | Morello原型、ISA扩展 | 原型阶段 |
| FreeBSD基金会 | 操作系统集成 | 内核隔离分区 | 在Morello上可投入生产 |
| Google(Project Zero) | 漏洞研究 | 基于LLM的漏洞挖掘工具 | 实验阶段 |

数据要点: 学术界(剑桥、SRI)与产业界(Arm、FreeBSD基金会)的合作至关重要。与专有解决方案不同,CHERI是开源且免版税的,这降低了采用门槛,但也意味着标准化进程较慢。

行业影响与市场动态

这一事件是网络安全支出根本性转变的催化剂。根据Gartner的数据,2024年全球网络安全支出达到1880亿美元,其中超过60%用于软件补丁、事件响应和漏洞管理。基于硬件的内存安全有望在十年内将这部分支出削减30-40%,因为整类漏洞将变得不可利用。

直接受益者是超大规模云服务商

更多来自 Hacker News

VibeLens:开源「思维显微镜」,让AI智能体决策透明化自主AI智能体的兴起——那些能够规划、使用工具并执行多步骤任务的系统——引入了一个关键问题:不透明性。开发者和用户都难以理解智能体为何采取特定行动、调用某个API或得出某个结论。这种「黑箱」问题削弱了信任,使调试复杂化,并在受监管行业的部署Claude Code 暗藏「OpenClaw」触发机制:你的 Git 历史正在决定 API 定价AINews 的一项调查揭示了 Anthropic 旗下 AI 编程助手 Claude Code 中隐藏的触发机制。该系统包含一段硬编码的逻辑模块,会扫描开发者近期的 Git 提交信息与分支名称,查找字符串「OpenClaw」。一旦检测到,Agent-Recall-AI:让AI代理不再“半途而废”的检查点救星自主AI代理的承诺长期以来一直被其脆弱性所掩盖。当一个代理被分配执行一个长达数小时的工作流——比如抓取数百个电商页面、重构大型代码库或编排供应链——任何API超时、上下文窗口溢出或服务器重启都可能抹去所有进度。Agent-recall-AI查看来源专题页Hacker News 已收录 2705 篇文章

相关专题

LLM19 篇相关文章

时间归档

April 20263011 篇已发布文章

延伸阅读

Quint内核级AI安全:为智能体打造操作系统层面的“行为安全锁”随着AI智能体(Agent)的爆发式增长,传统应用层安全已力不从心。创业公司Quint提出激进方案:将“行为安全锁”直接嵌入操作系统内核,实时拦截并分析智能体动作,在恶意或越权操作执行前将其阻断。AI代理的零信任架构:实现安全自主决策的唯一路径自主AI代理的崛起打破了我们对AI系统曾经抱有的隐性信任。AINews认为,借鉴自网络安全的零信任架构是唯一可行的前进方向,它要求对每一个代理动作、API调用和数据访问进行持续验证。这一范式转变将AI系统设计从追求最大能力转向追求最大可验证VibeBrowser:让AI代理接管你的真实浏览器——安全噩梦还是未来趋势?VibeBrowser通过模型上下文协议(MCP)在AI代理与真实网页之间架起桥梁,直接控制用户已认证的浏览器会话。它摒弃了沙盒环境或定制API,让AI代理能完成订机票、管理企业工具等复杂任务。但将全部Cookie和凭证交给AI,无疑是一把Openheim的Rust革命:重写AI智能体基础设施,迈向生产级韧性开源项目Openheim横空出世,旨在从根本上改变AI智能体的构建与部署方式。它用Rust语言重写了智能体基础设施层,直指当前以Python为核心的技术栈在内存安全与并发处理上的生产环境痛点。此举标志着AI工程正步入成熟期,系统韧性成为关键

常见问题

这次模型发布“LLM-Discovered FreeBSD Bug Stopped by CHERI Hardware: A Security Paradigm Shift”的核心内容是什么?

In a watershed moment for systems security, researchers demonstrated that a classic memory corruption vulnerability in the FreeBSD kernel, identified through systematic code audit…

从“CHERI vs ARM memory tagging extension comparison”看,这个模型发布为什么重要?

The vulnerability in question was a classic use-after-free bug in FreeBSD's TCP stack, specifically within the tcp_usrreq function. An LLM—likely a variant of GPT-4 or a fine-tuned code analysis model—scanned the kernel…

围绕“LLM vulnerability discovery tools open source”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。