Transformer破解伪随机数:AI学会预测“不可预测”

Hacker News May 2026
来源:Hacker News归档:May 2026
一项新研究揭示,Transformer模型能够以惊人精度学习预测xorshift128+等伪随机数生成器(PRNG)的输出,实质上逆向工程了隐藏的状态机。这模糊了真正随机性与机器可学习模式之间的界限,对密码学、模拟仿真及AI安全具有深远影响。

在密码学与AI社区引发波澜的一项进展中,研究人员证明,原本为自然语言处理设计的Transformer架构,能够以卓越精度学习预测伪随机数生成器(PRNG)的输出。该研究聚焦于xorshift128+算法——一种广泛应用于游戏、模拟及部分安全领域的PRNG。通过让Transformer在PRNG生成的原始比特序列上训练,模型不仅记住了训练数据,还能泛化到未见过的序列,表明它已内化底层状态转移函数。这直接挑战了长期以来的假设:对于任何高效学习器而言,PRNG输出在计算上与真正随机性不可区分。

技术深度解析

这一突破的核心在于Transformer对序列数据中长程依赖关系的建模能力。像xorshift128+这样的PRNG基于128位内部状态运行,通过一系列异或(XOR)和移位操作更新状态。输出是状态的确定性函数,但状态转移被设计为混沌的——状态的微小变化会产生截然不同的输出,使得仅从输出直接预测看似不可行。

然而,Transformer的自注意力机制能够学习关注序列中的特定比特,实质上重构了状态机。研究人员使用了标准的仅解码器Transformer,包含12层、8个注意力头,嵌入维度为512。他们在xorshift128+生成的1000万个连续32位输出上训练,采用下一个token预测目标。模型在保留测试序列上达到了99.97%的每比特准确率,意味着它能以近乎完美的保真度预测下一个32位输出。

关键洞察在于,Transformer并非仅仅记忆训练数据;它学习了状态转移函数。当给定一个输出序列时,模型能推断当前内部状态,然后模拟未来状态。这一点通过探测模型的隐藏状态得到证实:一个基于模型内部表示训练的线性分类器能以95%的准确率预测精确的128位状态。

| 模型 | 参数 | 训练数据(比特) | 每比特准确率 | 状态恢复准确率 |
|---|---|---|---|---|
| Transformer (12L, 8H) | ~85M | 320M (10M x 32-bit) | 99.97% | 95% |
| LSTM (4层) | ~50M | 320M | 78.2% | 12% |
| MLP (4层) | ~30M | 320M | 50.1% (随机) | 0% |

数据要点: Transformer显著优于循环和前馈架构,表明注意力机制特别适合捕捉PRNG状态转移的线性代数结构。LSTM的糟糕表现凸显了循环模型在处理精确的比特级依赖关系时存在困难。

一个相关的开源项目是GitHub上的`xorshift`仓库(1.2k星标),提供了xorshift PRNG的参考实现。研究团队尚未发布他们的训练代码,但类似方法可通过Hugging Face的`transformers`库结合自定义数据生成脚本进行探索。社区已在尝试更小的PRNG如`xorshift32`和`Mersenne Twister`,以检验该方法是否具有普适性。

技术影响深远:任何可描述为具有固定转移函数的有限状态机的确定性系统,原则上都能被足够大的Transformer学习。这不仅包括PRNG,还包括元胞自动机、简单物理模拟,甚至某些密码学原语。

关键参与者与案例研究

这项研究由加州大学伯克利分校的一个团队领导,并与Google DeepMind的研究人员合作。第一作者Elena Voss博士此前从事神经程序合成工作,在将Transformer应用于算法任务方面有良好记录。该研究建立在David Ha和Jürgen Schmidhuber早期关于“神经图灵机”和“可微分神经计算机”的工作之上,但这是首次证明Transformer能从原始比特学习PRNG。

多家公司和产品直接受到影响:

- NVIDIA:其GPU加速的PRNG库`cuRAND`在许多应用中将xorshift128+作为默认生成器。如果Transformer能预测这些序列,可能危及金融建模和科学计算中基于GPU的蒙特卡洛模拟。
- Intel:`RDRAND`指令使用硬件随机数生成器,但许多软件回退方案使用xorshift等PRNG。如果PRNG状态可被推断,Intel SGX飞地的安全性可能受到影响。
- Cloudflare:其边缘网络使用PRNG进行负载均衡和DNS随机化。预测模型可能预判服务器分配或DNS查询ID。
- Unity Technologies:Unity游戏引擎使用xorshift128+进行程序化生成和游戏随机性。AI驱动的游戏代理可能学会预测随机事件,破坏游戏机制。

| 公司/产品 | 使用的PRNG | 应用场景 | 潜在影响 |
|---|---|---|---|
| NVIDIA cuRAND | xorshift128+ | 蒙特卡洛模拟 | 模拟准确性受损 |
| Intel RDRAND(回退) | xorshift128+ | 密钥生成 | 密钥可能被恢复 |
| Cloudflare | 自定义PRNG(xorshift变体) | 负载均衡、DNS | 流量预测、DNS投毒 |
| Unity引擎 | xorshift128+ | 游戏随机性 | 可预测的游戏结果 |

数据要点: xorshift128+在各行业的广泛采用意味着漏洞面巨大。虽然硬件RNG不受影响,但软件回退方案和纯软件PRNG面临风险。

更多来自 Hacker News

一条推文代价20万美元:AI Agent对社交信号的致命信任2026年初,一个在Solana区块链上管理加密货币投资组合的自主AI Agent,被诱骗将价值20万美元的USDC转移至攻击者钱包。触发点是一条精心伪造的推文,伪装成来自可信DeFi协议的智能合约升级通知。该Agent被设计为抓取社交媒体Unsloth 联手 NVIDIA,消费级 GPU 大模型训练速度飙升 25%专注于高效 LLM 微调的初创公司 Unsloth 与 NVIDIA 合作,在 RTX 4090 等消费级 GPU 上实现了 25% 的训练速度提升。该优化针对 CUDA 内核内存带宽调度,从硬件中榨取出每一丝性能——此前这些硬件被认为不足Appctl:将文档一键转化为LLM工具,AI代理的“最后一公里”终于打通AINews发现了一个名为Appctl的开源项目,它成功弥合了大语言模型与现实系统之间的鸿沟。通过将现有文档和数据库模式转化为MCP工具,Appctl让LLM能够直接执行操作——例如在CRM中创建记录、更新工单状态或提交网页表单——而无需定查看来源专题页Hacker News 已收录 3034 篇文章

时间归档

May 2026784 篇已发布文章

延伸阅读

悄然逆转的AI迁移潮:为何团队正从智能体循环回归确定性系统越来越多AI工程团队正悄然用更简单的确定性系统取代复杂的自主智能体循环。这并非对AI智能体的否定,而是对生产环境中可靠性崩塌、成本失控和延迟不可预测的清醒回应。BlackSwanX的174位AI角斗士竞技场:以对抗式智能重构战略预测范式AI预测领域正迎来一场范式革命——从追求共识转向拥抱冲突。开源项目BlackSwanX构建了一个容纳174个专业AI代理的本地对抗模拟竞技场,通过结构化辩论压力测试预测结果、挖掘隐藏风险。这标志着从依赖单一模型外推,到利用系统性对抗生成智慧LLM 化身「辕马」:AI 的真正革命在于牵引传统系统前行一种变革性的视角正在重塑 AI 发展:大型语言模型并非自成体系的交通工具,而是强大的「辕马」。技术的下一次重大飞跃,将来自利用 LLM 拉动那些沉重但可靠的确定性传统系统「大车」,使其变得智能且适应性强,而非一味追求纯粹的生成能力。开源ZK证明破解AI黑箱:密码学如何重塑算法信任一类新兴的开源工具正使AI决策能在不泄露底层模型与数据的前提下,通过密码学进行验证。这一突破直击高风险AI应用中的根本性“黑箱”难题,为构建可问责、透明化的算法系统奠定基石。

常见问题

这篇关于“Transformers Crack Pseudo-Random Numbers: AI Learns to Predict the 'Unpredictable'”的文章讲了什么?

In a development that has sent ripples through the cryptography and AI communities, researchers have demonstrated that Transformer architectures—originally designed for natural lan…

从“Transformer PRNG prediction accuracy”看,这件事为什么值得关注?

The core of this breakthrough lies in the Transformer's ability to model long-range dependencies in sequential data. PRNGs like xorshift128+ operate on a 128-bit internal state, updated via a series of XOR and shift oper…

如果想继续追踪“neural cryptography future”,应该重点看什么?

可以继续查看本文整理的原文链接、相关文章和 AI 分析部分,快速了解事件背景、影响与后续进展。