神经网络与加密算法:重塑AI安全的惊人结构趋同

Hacker News May 2026
来源:Hacker NewsAI security归档:May 2026
AINews 的一项开创性分析揭示,神经网络与加密算法共享近乎相同的结构语法——多层变换、非线性操作与熵驱动设计。这种趋同正在模糊学习与保密之间的界限,为新一代隐私保护、可证明鲁棒的 AI 系统铺平道路。

现代深度神经网络的核心架构与 AES 等经典分组密码,其相似程度远超大多数工程师的认知。两者都依赖一系列非线性变换——AI 中的 ReLU 激活函数,密码学中的 S 盒——并与置换和混淆层交错排列。区别纯粹在于目标:神经网络优化模式识别,而加密算法最大化信息混淆。但这一边界正在消融。差分隐私向训练注入校准噪声,有效平衡学习与机密性;同态加密允许对加密数据直接计算,将神经网络变成“可计算的密码箱”。与此同时,利用梯度信息的对抗攻击则镜像了密码分析技术。这种结构同源性正在催生隐私保护机器学习、加密推理和抗攻击 AI 等新兴领域,其影响从苹果和谷歌的联邦学习系统延伸到微软的 CryptoNets 项目。

技术深度解析

神经网络与加密算法之间的结构同源性并非表面现象——它深入到两种系统处理信息的核心。以用于图像分类的标准卷积神经网络(CNN)为例:输入经过一系列卷积层(空间信息置换),随后是 ReLU 等非线性激活函数(混淆),然后是池化层(替代),最后是全连接层(扩散)。这在结构上与 AES 加密中使用的替代-置换网络(SPN)完全相同:明文经过 SubBytes(非线性 S 盒,类似 ReLU)、ShiftRows(置换)、MixColumns(扩散)和 AddRoundKey(熵注入)。

共享语法:
- 非线性变换: 在 AI 中,ReLU(f(x) = max(0,x))引入非线性以打破线性可分性。在密码学中,S 盒(例如 AES 中的 8x8 S 盒)以高度非线性的方式将输入比特映射到输出比特,以抵抗线性和差分密码分析。两者目的相同:阻止对手(或梯度)轻易逆转变换。
- 置换层: CNN 中的池化和步进卷积重新排列空间信息。在 AES 中,ShiftRows 循环移位状态矩阵的行。两者都确保局部模式被全局重新分布。
- 熵驱动设计: 神经网络使用 dropout、批归一化和权重衰减来注入随机性并防止过拟合。加密算法使用通过密钥调度从主密钥派生的轮密钥,确保每一轮都引入新的熵。

关键区别:目标函数
神经网络的损失函数(例如交叉熵)被最小化以最大化模式识别精度。加密算法的安全性通过雪崩效应(改变一个明文比特导致约 50% 的密文比特翻转)和抵抗差分密码分析等指标来衡量。然而,最新研究表明,神经网络可以被训练来近似加密原语。例如,论文《Learning to Protect Communications with Adversarial Neural Cryptography》(Abadi & Andersen, 2016)证明,两个神经网络(Alice 和 Bob)可以在存在对抗性窃听者(Eve)的情况下学习安全通信,而无需显式编程加密算法。

值得关注的 GitHub 仓库:
- TenSEAL(github.com/OpenMined/TenSEAL):一个用于张量同态加密操作的库,支持加密推理。超过 1500 颗星,由 OpenMined 积极维护。
- PySyft(github.com/OpenMined/PySyft):一个用于隐私保护深度学习的框架,使用差分隐私、联邦学习和加密计算。超过 9500 颗星。
- CryptoNet(github.com/microsoft/CryptoNet):微软研究院的实现,使用同态加密在加密数据上直接运行神经网络。

性能基准:加密推理开销
| 模型 | 明文推理(毫秒) | 加密推理(毫秒) | 开销倍数 | 精度下降 |
|---|---|---|---|---|
| ResNet-18(CIFAR-10) | 2.3 | 4,200 | 1,826x | 0.5% |
| Tiny CNN(MNIST) | 0.8 | 890 | 1,112x | 0.1% |
| Transformer(文本分类) | 5.1 | 12,000 | 2,353x | 1.2% |

数据要点: 同态加密的计算开销对于实时应用仍然过高——慢了四个数量级。然而,最近在分级 HE 方案(CKKS、BFV)和 GPU 加速多项式乘法方面的进展,正在以每年 10-15 倍的速度缩小这一差距。预计在 2-3 年内,小模型的加密推理将达到生产就绪水平。

关键参与者与案例研究

谷歌的差分隐私团队: 由 Úlfar Erlingsson 领导,他们率先将差分隐私应用于 Gboard 的下一词预测联邦学习中。通过向梯度更新添加校准的拉普拉斯噪声,他们实现了强隐私保证(ε ≈ 4),而预测精度仅下降 2%。这直接是密码学的类比:噪声充当梯度的“一次性密码本”,防止成员推断攻击。

苹果的私有联邦学习: 苹果在 iOS 中使用本地差分隐私(LDP)来学习表情符号使用模式和 QuickType 建议。每个设备在将数据发送到苹果服务器之前扰动其数据,确保即使是苹果也无法重建单个用户数据。隐私预算按每个用户每天跟踪,上限为 ε ≈ 6。

微软的 SEAL 和 CryptoNets: 微软研究院的 SEAL 库是学术界使用最广泛的同态加密库。他们的 CryptoNets 项目在 2016 年展示了首个在神经网络上进行实用加密推理的实例(MNIST 分类),在单 CPU 上实现了 99% 的准确率和 20 秒的推理时间。此后,他们优化了电路深度和

更多来自 Hacker News

一条推文代价20万美元:AI Agent对社交信号的致命信任2026年初,一个在Solana区块链上管理加密货币投资组合的自主AI Agent,被诱骗将价值20万美元的USDC转移至攻击者钱包。触发点是一条精心伪造的推文,伪装成来自可信DeFi协议的智能合约升级通知。该Agent被设计为抓取社交媒体Unsloth 联手 NVIDIA,消费级 GPU 大模型训练速度飙升 25%专注于高效 LLM 微调的初创公司 Unsloth 与 NVIDIA 合作,在 RTX 4090 等消费级 GPU 上实现了 25% 的训练速度提升。该优化针对 CUDA 内核内存带宽调度,从硬件中榨取出每一丝性能——此前这些硬件被认为不足Appctl:将文档一键转化为LLM工具,AI代理的“最后一公里”终于打通AINews发现了一个名为Appctl的开源项目,它成功弥合了大语言模型与现实系统之间的鸿沟。通过将现有文档和数据库模式转化为MCP工具,Appctl让LLM能够直接执行操作——例如在CRM中创建记录、更新工单状态或提交网页表单——而无需定查看来源专题页Hacker News 已收录 3034 篇文章

相关专题

AI security39 篇相关文章

时间归档

May 2026784 篇已发布文章

延伸阅读

黑帽大模型:为什么攻击AI才是唯一的真正防御策略研究员Nicholas Carlini在其极具挑衅性的“黑帽大模型”演讲中提出,保护大语言模型唯一诚实的方法就是先攻击它们。AINews深入剖析这一攻防范式如何推动行业从被动修补转向主动对抗测试,并对产品设计、商业模式及AI安全未来产生深远微调解锁LLM版权书籍记忆:一场新的责任危机一项惊人发现表明,即便只在少量受版权保护的文本上进行微调,也能解锁大语言模型在预训练阶段存储的整本书籍的逐字回忆。这种“记忆唤醒”现象颠覆了此前关于模型记忆的认知,并为AI行业带来了严峻的法律与产品挑战。类型理论如何悄然重塑神经网络架构与可靠性一场深刻却低调的变革正在AI研究领域展开。长期主导编程语言设计的严谨数学学科——类型理论,正被系统性地注入神经网络架构的核心。这场融合旨在解决AI可靠性、可解释性与泛化能力的基础性挑战,或将彻底改写我们构建智能系统的方式。AI基础设施的静默革命:匿名令牌如何重塑人工智能自主性一场静默而深刻的基础设施革命正在AI领域展开。匿名请求令牌机制的演进,标志着行业从单纯追求原始能力,转向对运行优雅度与可信度的关键性成熟。这项技术进步使AI能够以前所未有的隐私性和自主性,与外部数据及服务进行交互。

常见问题

这篇关于“Neural Networks and Encryption: The Surprising Structural Convergence Reshaping AI Security”的文章讲了什么?

The core architecture of a modern deep neural network and a classical block cipher like AES are more alike than most engineers realize. Both rely on a cascade of nonlinear transfor…

从“How does homomorphic encryption work with neural networks?”看,这件事为什么值得关注?

The structural homology between neural networks and encryption algorithms is not superficial—it runs to the core of how both systems process information. Consider a standard convolutional neural network (CNN) for image c…

如果想继续追踪“Can neural networks be used to break encryption?”,应该重点看什么?

可以继续查看本文整理的原文链接、相关文章和 AI 分析部分,快速了解事件背景、影响与后续进展。