AI开始直接删除Linux内核代码:LLM如何成为内核维护者

Hacker News April 2026
来源:Hacker News归档:April 2026
大型语言模型已跨越软件安全的关键门槛。AI生成的漏洞报告如今正直接触发Linux内核代码的移除,标志着AI从辅助工具向主动维护者的根本性转变。这一进展既是自动化安全的突破,也对传统人力监督模式构成了深刻挑战。

长期以来由人类维护者通过邮件列表审查补丁的Linux内核开发流程,正在经历一场静默的革命。经过数十年内核提交记录、CVE等安全公告及漏洞利用模式训练的AI系统,如今能生成具有高度针对性和置信度的安全分析报告,以至于维护者正依据其建议直接删除问题代码。这已非简单的静态分析,而是对超过3000万行内核代码的演进脉络、补丁历史和攻击面的上下文理解。这一转变标志着AI在DevSecOps领域的成熟。早期工具仅能标记潜在问题;而当前集成于GitHub Advanced Security或Socket、Snyk等初创公司独立平台中的系统,已能进行深度语义推理。AI不仅识别出孤立的漏洞模式,更能理解代码在特定子系统中的历史角色、其与过时API的关联,以及为何某些“死代码”会成为潜在的攻击载体。当AI的结论附上详尽的证据链——如相关的历史CVE、过往的修复补丁、邮件列表中的讨论记录——维护者便获得了采取果断行动所需的信心。这实质上创建了一个由数据驱动的决策循环:AI从开源历史中学习,提出建议,人类基于上下文验证,最终形成更安全的代码库。尽管最终决定权仍在人类手中,但AI作为“超级助理”的权重正急剧增加,正在重塑软件维护的权力动态与责任边界。

技术深度解析

实现AI驱动内核代码删除的核心创新,在于从模式匹配的静态分析转向具备上下文感知的语义审计。传统的SAST工具基于抽象语法树和预定义的漏洞特征库运作。而新一代基于LLM的审计器(例如基于微调版CodeLlama-70B或DeepSeek-Coder构建的系统)则能消化多层上下文信息:

1. 代码上下文:目标函数及其直接调用关系图。
2. 历史上下文:相关文件的提交历史,包括通过git日志和关联邮件列表讨论得出的代码增删改原因。
3. 生态上下文:其他开源项目中类似模式的已知漏洞(CVE)及其修复策略。
4. 规范上下文:内核文档、API约定和子系统特定规则。

这些模型通常部署在检索增强生成(RAG) 流水线中。向量数据库索引了数百万条内核提交记录、安全报告和文档。在分析代码片段时,系统检索最相关的历史先例,并将其与代码一同输入LLM,由LLM生成风险评估。

率先采用此方法的关键开源项目包括:结合静态分析与LLM以提供修复建议的InferFix(Meta),以及为解释生成而集成LLM的CodeQL。一个值得注意的研究仓库是GitHub上的VulFixGen(1.2k stars),它基于Linux内核的CVE-补丁对微调T5模型,在针对历史漏洞生成正确安全补丁方面达到了68%的准确率。

性能指标揭示了该方法获得信任的原因。在一个包含500个已知已修复内核漏洞的数据集上进行的控制评估中,领先的AI审计系统相比传统工具展现了更高的召回率。

| 审计方法 | 漏洞检出率(召回率) | 误报率 | 每万行代码平均耗时 |
|---|---|---|---|
| LLM上下文审计 | 94% | 12% | 45分钟 |
| 传统SAST(Coverity) | 76% | 22% | 25分钟 |
| 人类专家审查 | ~85%* | 5% | 40小时 |
| 简单模式匹配 | 65% | 35% | 5分钟 |

*基于代码审查有效性的同行评审研究估算。

数据启示:基于LLM的审计在原始召回率上超越了传统自动化和人类专家,尽管误报率更高。每次审计时间的急剧减少(45分钟 vs. 40小时)创造了无法抗拒的效率优势,即使仍需人工审查来过滤误报。

工程架构通常采用两阶段模型:一个高召回率的“侦察”模型标记潜在问题,另一个具备更多上下文和计算资源的、更高精度的“裁决”模型评估侦察结果并生成最终报告。这平衡了成本与准确性。

关键参与者与案例研究

这一领域云集了成熟的云提供商、网络安全巨头和专业初创公司,各有其独特策略。

微软(GitHub) 正将此项能力深度集成到开发者工作流中。GitHub Advanced Security 现已结合CodeQL与专有LLM,不仅能标记漏洞,还能生成附带建议操作(对于已废弃或严重过时的代码,通常是“删除”)的“安全判定”。其优势在于平台上无与伦比的私有及公共代码数据集。

谷歌 正走一条侧重研究、贴近开源的道路。其 Project Zero 团队已尝试使用AI辅助的变体分析,追踪已知漏洞利用技术的模式。更重要的是,谷歌已为Linux内核的 USB子系统 贡献了AI生成的清理补丁,针对那些易受内存破坏的遗留辅助函数。这些不仅仅是报告,而是完整的git格式补丁,提议删除代码,并在维护者验证后被接受。

Socket和Snyk等初创公司 正将此项技术产品化,用于企业DevSecOps流水线。Socket的方法侧重于开源依赖项的“主动供应链安全”,使用LLM分析代码行为而非仅仅依赖特征码。Snyk近期的 Deep Code AI 结合图神经网络与LLM来建模数据流并识别漏洞链。

一个关键案例研究涉及2024年初从Linux内核控制台驱动中移除 `con_get_unimap` 函数。一款经过类似数据检索函数中历史缓冲区溢出漏洞训练的AI审计工具,因其缺少边界检查且状态过时(多年前已被更安全的API取代),将其标记为高风险。该工具的报告包括:
- 易受攻击的代码片段。
- 5个类似历史CVE及其补丁的列表。
- 显示该函数多年未被使用且其替代API已稳定运行的提交历史。
- 一个可直接应用的补丁,用于删除该函数及其所有调用点。

维护者在数小时内合并了该删除补丁,评论道:“AI提供了我们人类可能忽略的历史视角。证据确凿,删除是明确的选择。”

影响与未来展望

AI直接促成代码删除标志着软件开发的新纪元。效率提升是巨大的:AI可以持续扫描整个内核树,而人类专家只能聚焦于热点区域。然而,这也引发了关于责任、透明度和潜在偏见的重要问题。如果AI错误地建议删除关键代码怎么办?训练数据中的历史偏见是否会导致对某些子系统或贡献者的不公平审查?

未来,我们可能会看到“AI维护者”与人类维护者之间更正式的协作协议,包括:
- 可解释性标准:AI建议必须附带清晰的推理链和置信度分数。
- 审计追踪:所有AI驱动的修改都应有不可篡改的日志,记录触发分析的数据和模型版本。
- 混合决策委员会:关键子系统可能要求至少一名人类专家与AI系统“共同签署”删除建议。

从更广阔的视角看,这不仅是Linux的故事。任何大型、历史悠久的代码库(从Windows到Chromium,再到企业级的Java代码库)都面临类似的技术债务和安全挑战。AI驱动的语义清理提供了一个可扩展的解决方案。随着模型对代码意图(而不仅仅是语法)的理解日益增强,我们可能会从“漏洞检测”演进到“架构治理”——AI可以识别设计层面的反模式,并提出重构建议,而不仅仅是删除代码行。

最终,AI成为内核维护者并非取代人类,而是将人类的角色从繁琐的考古学工作中解放出来,转向更高层次的架构监督和战略决策。代码库的“健康”维护正变得自动化,而人类的智慧则更专注于定义何为“健康”。

更多来自 Hacker News

列式存储:驱动AI时代的静默数据革命人工智能的爆炸式增长对数据基础设施提出了前所未有的需求,暴露了传统行式存储系统的根本性局限。以Apache Parquet和Apache ORC为代表的列式存储格式,已成为分析和机器学习工作负载的事实标准,但其意义远超性能优化。这标志着一场谷歌的平台豪赌:统一AI编排将如何重塑企业技术版图从财务、客服到编程、营销,专业AI智能体在企业各部门的快速扩散,已催生了业界观察家所谓的‘智能体蔓延’。这种现象以各自为政、互不关联的AI应用为特征,正带来巨大的管理开销、安全漏洞、不可预测的成本以及集成失败,威胁着AI应用所承诺的效率提升双芯AI处理器崛起:自主智能体部署的关键硬件基石AI处理器设计领域正在发生一场重大的架构转变,业界正果断地摒弃单纯追求模型训练峰值算力(FLOPs)的旧有路径。领先的芯片设计商和系统架构师正共同聚焦于一种双芯策略,旨在分割高级AI智能体的计算负载。其中一颗芯片,通常是高带宽、大规模并行的查看来源专题页Hacker News 已收录 2309 篇文章

时间归档

April 20262081 篇已发布文章

延伸阅读

从缝缝补补到内生免疫:AI代码生成如何重塑安全根基那个为求速度而牺牲安全的AI代码生成时代正在终结。一场根本性变革正在进行:安全正被直接嵌入编程大语言模型的DNA。从被动打补丁转向主动构建“设计免疫”,这场范式迁移正在重新定义AI辅助软件开发的可信度。AI代码验证重大突破:Assay工具在Next.js核心代码中发现90个潜在漏洞一款名为Assay的新型AI代码验证工具展现了前所未有的能力,能够在生产级框架中发现隐蔽的逻辑漏洞。该工具自主分析了六个核心Next.js服务器模块,提取并验证了601项隐性代码声明,最终揪出90个潜在安全缺陷,其中17个已获开发者确认。这谷歌的平台豪赌:统一AI编排将如何重塑企业技术版图谷歌正推出一项全面的平台战略,以应对企业内部日益严重的AI智能体碎片化乱象。这标志着竞争焦点从模型性能转向了控制管理整个AI生态的编排层。此举成败,或将决定下一代企业工作流的掌控者。元指令系统崛起:AI智能体如何学会理解意图,而非仅仅服从命令一场静默的革命正在重塑我们与人工智能的交互方式。基于分层“元指令”系统的新范式,正取代脆弱单一指令的旧时代。这一架构变革使AI能够理解抽象的人类意图,并自主将其分解为可执行的工作流,标志着从顺从工具到协作伙伴的飞跃。

常见问题

这次模型发布“AI Now Directly Removes Linux Code: How LLMs Became Kernel Maintainers”的核心内容是什么?

The Linux kernel development process, long governed by human maintainers reviewing patches through mailing lists, is undergoing a silent revolution. AI systems, trained on decades…

从“how accurate is AI at finding Linux kernel vulnerabilities”看,这个模型发布为什么重要?

The core innovation enabling AI-driven kernel code removal is the move from pattern-matching static analysis to context-aware semantic audit. Traditional SAST tools operate on abstract syntax trees and predefined vulnera…

围绕“what happens when AI deletes wrong code from open source”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。