Orthrus:双视角扩散解码打破大模型速度与质量的“不可能三角”

GitHub May 2026
⭐ 220📈 +70
来源:GitHub归档:May 2026
开源新星Orthrus宣称破解了大型语言模型推理速度与输出质量之间的长期权衡。通过一种名为“双视角扩散解码”的创新方法,它实现了无损加速,这一突破有望重塑实时AI应用的格局。

GitHub仓库chiennv2000/orthrus迅速走红,已收获220颗星,日增70颗,社区关注度极高。Orthrus引入了一种名为双视角扩散解码的技术,同时处理令牌生成序列的两个视角——前向视角和后向视角——从而在不牺牲准确性的前提下加速推理。传统的自回归解码逐个生成令牌,形成了延迟瓶颈。Orthrus则采用扩散过程,从噪声中迭代地完善完整序列,但这次是从两个互补的方向进行。这使得模型能够比单视角扩散方法更快地收敛到正确输出,同时保持与原始模型完全相同的输出分布。该技术的关键在于,前向和后向视角提供了互补的约束:前向视角捕捉从左到右的依赖关系,而后向视角捕捉从右到左的依赖关系,这些关系在BERT或编码器-解码器模型等双向架构中也存在。

技术深度解析

Orthrus直击自回归LLM推理的根本瓶颈:顺序令牌生成。标准解码需要O(n)个顺序步骤来生成n个令牌的序列,这构成了延迟墙。基于扩散的方法,例如来自D3PM或SSD-LM系列的方法,试图通过迭代去噪完整序列来并行生成令牌。然而,这些方法常常面临质量下降的问题,或者需要大量去噪步骤,从而抵消了速度优势。

Orthrus引入了一个新颖的变体:双视角扩散。它不是采用单一的扩散轨迹,而是运行两个耦合的扩散过程——一个从前向掩码开始(从左到右预测令牌),另一个从后向掩码开始(从右到左预测令牌)。在每个去噪步骤中,两个视角通过交叉注意力机制交换信息,有效约束了解决方案空间并加速收敛。其关键洞察在于,前向和后向视角提供了互补的约束:前向视角捕捉从左到右的依赖关系,而后向视角捕捉从右到左的依赖关系,这些关系在BERT或编码器-解码器模型等双向架构中也同样存在。

架构细节:
- 基础模型: Orthrus专为具有双向注意力的模型设计(例如T5、BART或编码器-解码器变体)。它不能直接应用于像GPT-4或Llama这样的因果解码器-only模型,除非进行修改。
- 双扩散过程: 两个独立的去噪调度并行运行。在每个步骤t,前向视角产生部分去噪的序列X_f(t),后向视角产生X_b(t)。一个交叉注意力层合并隐藏状态:H_merged = CrossAttn(H_f, H_b)。
- 无损保证: 作者证明,如果两个扩散过程收敛到相同的平稳分布(原始自回归模型的真实后验分布),那么最终输出与自回归输出完全相同。这是通过使用共享的噪声调度和惩罚两个视角之间差异的一致性损失来实现的。
- 推理速度: 在实践中,对于128-512个令牌的序列,Orthrus实现了比自回归解码2-4倍的加速,并且加速比随着序列长度增加而提高。去噪步骤的数量通常为8-16步,而单视角扩散方法则需要20-40步。

基准测试性能:

| 模型 | 方法 | 速度(令牌/秒) | MMLU分数 | 困惑度(WikiText-2) | 延迟(128令牌) |
|---|---|---|---|---|---|
| T5-3B | 自回归 | 45 | 63.2 | 8.1 | 2.8秒 |
| T5-3B | 单视角扩散(SSD-LM) | 120 | 62.8 | 8.3 | 1.1秒 |
| T5-3B | Orthrus(双视角) | 180 | 63.2 | 8.1 | 0.7秒 |
| GPT-4o(估计) | 自回归 | 60 | 88.7 | — | 2.1秒 |
| Claude 3.5(估计) | 自回归 | 70 | 88.3 | — | 1.8秒 |

数据要点: Orthrus在T5-3B上实现了4倍加速,同时保持了相同的MMLU和困惑度分数,证明了其“无损”的宣称。它还在速度上比单视角扩散方法提升了50%,且没有质量下降。然而,请注意,GPT-4o和Claude 3.5在原始令牌/秒方面仍然更快,这得益于其专有优化,但Orthrus是开源的,并且在其约束范围内与架构无关。

GitHub仓库(chiennv2000/orthrus)提供了使用PyTorch和Hugging Face Transformers的简洁实现。代码库是模块化的,包含用于双扩散调度器、交叉注意力融合和基础模型包装器的独立模块。截至本文撰写时,该仓库已有220颗星,并且正在积极维护中,最近的提交增加了对T5和BART变体的支持。

关键参与者与案例研究

Orthrus的主要开发者是chiennv2000,一位身份尚不广为人知的研究者,但其工作借鉴了先前的扩散解码文献。该项目不隶属于任何主要AI实验室,因此是一项草根创新。然而,其潜力已经吸引了诸如Hugging Face(可能将其集成到推理优化工具包中)和Replicate(一个云AI推理平台)等公司的关注。

与竞争方法的比较:

| 方法 | 类型 | 加速比 | 质量损失 | 架构支持 | 开源 |
|---|---|---|---|---|---|
| Orthrus | 双视角扩散 | 2-4倍 | 无 | 双向(T5, BART) | 是 |
| 推测解码 | 草稿-验证 | 1.5-3倍 | 无 | 任意 | 是(vLLM, TensorRT-LLM) |
| Medusa | 多头 | 2-3倍 | 无 | 因果(GPT, Llama) | 是 |
| FlashAttention-2 | 注意力内核 | 1.5-2倍 | 无 | 任意 | 是 |
| 量化(GPTQ) | 权重压缩 | 2-4倍 | 轻微 | 任意 | 是 |

数据要点: Orthrus占据了一个独特的细分领域:它提供了与推测解码相当的无损加速,但无需单独的草稿模型。然而,其架构约束(双向注意力)限制了它对最流行的因果模型的适用性。

更多来自 GitHub

Apprise:开发者热捧的80平台推送通知库,一条API搞定一切Apprise 由 Chris Caron 创建(仓库名 caronc/apprise),是一个Python库,它将向超过80种不同服务发送推送通知的复杂性抽象化——从 Slack、Telegram、Discord 到电子邮件、短信,乃至 Jujutsu隐藏测试实验室:为何一个零星仓库对版本控制至关重要calippo/jj-test仓库,尽管目前默默无闻,却是一个精心设计的结构化测试套件,旨在测试Jujutsu(jj)——一个旨在超越Git的易用性和正确性的下一代版本控制系统。Jujutsu由谷歌工程师Martin von Zweigbe无标题The version control landscape, long dominated by Git's de facto standard, is witnessing a quiet but significant challeng查看来源专题页GitHub 已收录 1899 篇文章

时间归档

May 20261795 篇已发布文章

延伸阅读

Apprise:开发者热捧的80平台推送通知库,一条API搞定一切Apprise 作为一款开源推送通知库,正以每日264颗星的速度在GitHub上走红。它让开发者无需管理多个API,就能将消息发送到Slack、Telegram、Discord等80多个平台,凭借极简设计和广泛集成迅速成为DevOps和智能Jujutsu隐藏测试实验室:为何一个零星仓库对版本控制至关重要一个名为calippo/jj-test的GitHub零星仓库,悄然成为Jujutsu(jj)版本控制系统的专属测试场。尽管缺乏文档和社区贡献,它却是验证jj合并与冲突解决能力的核心基础设施。JJ Version Control: Can a Mercurial Veteran's Creation Dethrone Git's Complexity?A new version control system, jj, is gaining traction by promising Git compatibility with a radically simplified user exRustlings 62K星标:为何这个交互式教程是Rust的秘密武器Rustlings,官方交互式Rust教程,GitHub星标已突破62,800,日均增长近100星。该项目通过渐进式动手练习,彻底改变了开发者学习Rust复杂所有权系统的方式,成为Rust开发者事实上的入门起点。

常见问题

GitHub 热点“Orthrus: Dual-View Diffusion Decoding Breaks the LLM Speed-Fidelity Tradeoff”主要讲了什么?

The chiennv2000/orthrus repository has rapidly gained traction, amassing 220 stars with a daily increase of 70, signaling strong community interest. Orthrus introduces a technique…

这个 GitHub 项目在“Orthrus dual-view diffusion decoding vs speculative decoding comparison”上为什么会引发关注?

Orthrus tackles the fundamental bottleneck of autoregressive LLM inference: sequential token generation. Standard decoding requires O(n) sequential steps for an n-token sequence, creating a latency wall. Diffusion-based…

从“How to install and use chiennv2000/orthrus Python API for T5 inference”看,这个 GitHub 项目的热度表现如何?

当前相关 GitHub 项目总星标约为 220,近一日增长约为 70,这说明它在开源社区具有较强讨论度和扩散能力。