AI将二进制读作语言:LLM如何颠覆逆向工程

Hacker News April 2026
来源:Hacker News归档:April 2026
一位开发者将1992年飞行模拟游戏《特技岛》的原始二进制文件和原版文档喂给大语言模型,模型成功重构了压缩算法、3D坐标系和事件逻辑。这标志着一场范式转变:LLM正从代码生成器进化为代码解释器,能够读取并理解机器级语义。

在一项引发软件保存与逆向工程社区广泛关注的地标性实验中,一位开发者证明,大语言模型(LLM)仅凭原始二进制数据和原版文档,就能解析并重构1992年飞行模拟游戏《特技岛》的核心逻辑。整个过程无需传统反汇编器、十六进制编辑器或人工模式匹配。LLM识别了游戏的自定义压缩算法,映射了其3D坐标系,并破译了事件触发逻辑——这些任务原本需要熟练的逆向工程师花费数周甚至数月时间。这一成就凸显了一个根本性转变:LLM在大量源代码、文档和技术手册的语料上训练后,将二进制数据视为一种结构化语言。它们能够

技术深度解析

这一突破的核心洞察在于,LLM(尤其是基于Transformer的架构)在序列模式识别方面异常出色——而二进制数据本质上就是具有结构规律性的字节序列。本例中的开发者结合了原版游戏手册(扫描并OCR处理)、原始.EXE和数据文件,以及一份精心设计的提示词,指示模型将二进制视为一种具有特定语法(例如压缩标记、坐标分隔符)的“语言”。

工作原理:
- 字节的Token化: 像GPT-4o和Claude 3.5这样的现代LLM能够对原始字节序列进行Token化,尤其是在输入被结构化为十六进制或base64格式时。模型的注意力机制能识别出重复出现的模式——例如,序列`0x78 0x9C`表示zlib压缩,或者一个重复的12字节块对应一个3D顶点(x、y、z各为4字节浮点数)。
- 文档的上下文推理: LLM将二进制模式与原版手册中的文字描述进行交叉引用。如果手册写道“地形数据以256x256网格的16位高度值存储”,模型就能在二进制中搜索一个131,072字节的块(256*256*2)并验证该假设。
- 迭代优化: 开发者使用了多轮对话,要求LLM输出其推理过程,然后将测试反编译器返回的错误信息反馈给模型,以优化其理解。这本质上是一种应用于二进制分析的思维链(CoT)方法。

相关开源工具:
- ghidra_llm_bridge(GitHub,约1.2k星):一个用于Ghidra逆向工程框架的插件,可将反编译后的代码发送给LLM进行注释和重命名。它展示了混合方法——传统反汇编用于控制流,LLM用于语义标注。
- binaryAI(GitHub,约800星):剑桥大学的一个研究项目,使用类似BERT的模型从剥离后的二进制文件中预测函数名和变量类型。它在函数名恢复上的准确率约为65%,而传统启发式方法约为30%。
- Stunt Island Reversing Project(尚未公开,但开发者已分享日志):具体方法是将二进制文件分割成64KB的块,每块连同提示模板一起喂给LLM:“你是一名逆向工程师。分析这个十六进制转储。该游戏使用自定义的RLE变体。识别长度前缀并输出解压后的数据。”

性能基准测试:

| 任务 | 传统逆向工程(人类专家) | LLM辅助(GPT-4o) | 节省时间 |
|---|---|---|---|
| 识别压缩算法 | 2-4小时(手动字节分析) | 15分钟(提示+验证) | 87-93% |
| 重构3D顶点格式 | 1-2天(与渲染交叉引用) | 2小时(配合手动文档输入) | 83-91% |
| 映射事件触发逻辑 | 3-5天(动态追踪) | 4小时(静态+文档推理) | 90-95% |
| 完整游戏逻辑重构 | 4-8周 | 2-3周(配合迭代优化) | 50-62% |

数据要点: LLM在模式识别和语义推理方面表现出色,但在控制流和边缘情况处理上仍需人工验证。最大的时间节省体现在算法识别和数据结构映射上——这些任务模式密集而文档稀疏。

关键参与者与案例研究

这项实验并非孤立事件。多个组织与研究人员正在积极推动LLM辅助逆向工程走向生产应用。

关键参与者:
- OpenAI(GPT-4o, o3): 用于《特技岛》实验的模型。其处理长上下文(128K tokens)和执行多步推理的能力至关重要。OpenAI尚未正式认可二进制分析,但内部研究表明他们正在探索这一方向。
- Anthropic(Claude 3.5 Sonnet): 以其强大的文档理解能力和安全约束著称。Claude特别擅长解析扫描版PDF(如老游戏手册)并将其与代码进行交叉引用。
- Google DeepMind(Gemini 2.0): 已发表关于“从二进制理解代码”的研究,使用多模态模型同时读取十六进制转储和汇编代码。
- Hex-Rays(IDA Pro): 占主导地位的商业反汇编器。他们在IDA 9.0中集成了基于LLM的函数命名功能,但仅限于x86/x64架构。《特技岛》实验挑战了他们的方法,表明LLM可以在完全没有反汇编器的情况下工作。
- 游戏保存社区: 像视频游戏历史基金会和互联网档案馆软件收藏这样的组织正在积极资助AI辅助逆向工程项目。他们视此为拯救数千款因公司收购或火灾(例如2019年环球影城火灾)而丢失源代码的游戏的方法。

基于LLM的逆向工程工具对比:

| 工具/方法 | 基础模型 | 输入格式 | 输出 | 准确率(函数命名) | 成本(每次分析) |
|---|---|---|---|---|---|
| ghidra_llm_bridge | GPT-4o / Claude 3.5 | 反编译的C代码 | 重命名的函数、注释 | ~70% | $0.01-0.05 |
| binaryAI | 自定义BERT | 剥离的二进制 | 预测的函数名、类型 | ~65% | 免费(研究用途) |
| Stunt Island方法 | GPT-4o | 原始二进制+文档 | 重构的算法、数据结构 | 已验证(非通用) | $0.50-2.00(完整游戏) |
| IDA Pro 9.0 LLM | 内部模型 | 反汇编代码 | 函数命名 | ~50%(x86/x64) | 包含在许可证中 |

更多来自 Hacker News

AWS凭证隔离:改写本地AI代理安全规则,内核级防护终结密钥泄露噩梦本地AI代理——在用户机器上自主执行任务的程序——能力已大幅提升,但它们对云服务凭证的依赖也带来了严重的安全隐患。传统方法将API密钥存储在环境变量、配置文件或代理内存中,所有这些都暴露在提示注入攻击之下,攻击者可诱骗代理泄露机密。由多家隐Graph-Flow 用 Rust 重写 LangGraph:类型安全的 AI 智能体工作流时代到来Graph-flow 并非 LangGraph 的简单 Rust 翻译,而是对 AI 智能体工作流执行的根本性重构。该库在纯安全 Rust 中实现了带条件路由、状态持久化和节点级错误处理的有向无环图(DAG),彻底消除了困扰 Python AI披露:新SEO法则——为何每个网站都需要一份透明度声明在AI生成文本能以近乎完美的逼真度模仿人类写作的时代,一场静默革命正在发生:网站所有者开始主动标注由生成式AI创作或辅助生成的内容。这并非监管强制,而是一场由信任平衡崩溃驱动的自愿性战略行动。读者对匿名或机器生产的信息日益怀疑,迫切想知道所查看来源专题页Hacker News 已收录 2579 篇文章

时间归档

April 20262703 篇已发布文章

延伸阅读

AWS凭证隔离:改写本地AI代理安全规则,内核级防护终结密钥泄露噩梦一种全新的凭证隔离架构正在切断本地AI代理与AWS密钥之间的直接联系,将安全代理嵌入操作系统内核深处。这一设计使提示注入攻击无法提取真实密钥,从根本上解决了受监管行业中自主代理面临的核心安全瓶颈。Graph-Flow 用 Rust 重写 LangGraph:类型安全的 AI 智能体工作流时代到来一款名为 graph-flow 的新 Rust 库,将 LangGraph 基于图的状态机移植到 Rust 的类型安全生态中,重新定义了 AI 智能体编排。凭借 300 个 GitHub Star 和 6000 次 crates.io 下载AI披露:新SEO法则——为何每个网站都需要一份透明度声明越来越多的网站正主动添加AI披露声明,标志着从被动采用AI到主动担责的根本转变。AINews深度解析:为何这一小小的透明度举措,正成为关乎信任、搜索可见度与品牌长期存续的战略要务。OpenAI的智能手机棋局:杀死应用才是真正的革命OpenAI首款硬件设备尘埃落定:一部智能手机。外观虽似曾相识,内部架构却是一场激进变革——设备运行原生集成的AI操作系统,以意图驱动代理取代传统应用,直指移动双寡头统治地位。

常见问题

这次模型发布“AI Reads Binary Like a Language: How LLMs Are Revolutionizing Reverse Engineering”的核心内容是什么?

In a landmark experiment that has sent ripples through the software preservation and reverse engineering communities, a developer demonstrated that a large language model (LLM) can…

从“how to use LLM to reverse engineer old games”看,这个模型发布为什么重要?

The core insight behind this breakthrough is that LLMs, particularly transformer-based architectures, are exceptionally good at pattern recognition across sequences — and binary data is, at its heart, a sequence of bytes…

围绕“best AI tools for binary analysis and decompilation”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。