Covenant-72B完成训练,开启去中心化AI新时代

Hacker News March 2026
来源:Hacker Newsdecentralized AIopen source AIlarge language model归档:March 2026
The Covenant-72B project has completed pre-training, marking a historic milestone as the largest decentralized large language model ever created. This 72-billion-parameter model, t

随着Covenant-72B预训练阶段的成功完成,AI发展格局已到达一个关键的转折点。这一成就标志着迄今为止规模最大的、去中心化协作构建尖端大语言模型的努力取得了圆满成功,整个项目完全在传统企业超大规模数据中心框架之外运行。该项目通过协调一个由自愿参与的全球分布式计算节点组成的网络,完成了720亿参数模型的训练,为另一种AI未来提供了强有力的概念验证。

Covenant-72B的成功完成,解决了去中心化机器学习固有的一系列复杂技术挑战。其核心创新不在于新颖的模型架构,而在于协调层——一套使异构、全球分布的硬件能够进行稳定高效训练的协议、框架和激励机制。项目结合了具有鲁棒性检查点的异步训练技术、确保参与者正确执行分配训练任务的新型可验证计算协议,以及基于可验证工作单元和数据质量奖励贡献的代币激励系统,克服了延迟、节点流失、硬件差异和信任问题。

其结果是,一个720亿参数模型的训练轨迹和最终基准测试性能首次证明,去中心化协调能够达到此前仅中心化集群才具备的稳定性。这验证了一套基于弹性与自愿参与而非物理基础设施资本支出的AI开发新技术栈。

技术分析

Covenant-72B预训练的完成是一项巨大的工程壮举,解决了去中心化机器学习固有的一系列复杂技术挑战。核心创新不在于新颖的模型架构,而在于协调层——一套使异构、全球分布的硬件能够进行稳定高效训练的协议、框架和激励机制。

传统大模型训练依赖于单一数据中心内紧密耦合、高带宽的互连,以在数千个相同的GPU之间同步梯度。Covenant项目必须克服延迟、节点流失(参与者加入和离开)、硬件差异和信任问题。它通过结合具有鲁棒性检查点的异步训练技术、一种确保参与者正确执行分配训练任务的新型可验证计算协议,以及一个基于可验证工作单元和数据质量奖励贡献的代币激励系统,实现了这一目标。

一个关键突破是开发了一种容错的分布式优化器,能够处理显著的延迟和部分更新而不会发散。这使得即使网络中有相当一部分节点暂时离线或速度缓慢,模型也能取得进展。此外,该项目实施了先进的数据路由和分片技术,以确保在不可信节点间训练数据的隐私和完整性,这是处理预训练所需多样化数据集的必要条件。

其结果是,一个720亿参数模型的训练轨迹和最终基准测试性能首次证明,去中心化协调能够达到此前仅中心化集群才具备的稳定性。这验证了一套基于弹性与自愿参与而非物理基础设施资本支出的AI开发新技术栈。

行业影响

Covenant-72B的成功在AI行业引发了震动,挑战了其基本的经济和运营假设。多年来,主流叙事一直是构建前沿AI需要数十亿美元的数据中心资本投入,这为除了资金最雄厚的公司和国家之外的所有参与者创造了难以逾越的护城河。这个项目打破了这种叙事,证明可以调动集体、分布式的资源来实现类似的结果。

最直接的影响是访问的民主化。独立研究人员、学术机构和较小的初创公司现在有了一条可行的途径,可以在不需要企业赞助或云服务积分的情况下,为前沿规模的模型开发做出贡献并从中受益。这降低了进行新颖研究和专业化微调的门槛,可能释放一波在利基和垂直应用领域的创新浪潮,而这些应用对于通用的企业模型来说是不经济的。

透明度和可审计性成为其固有特性。

更多来自 Hacker News

CodeBurn 曝光 AI 隐形成本危机:从令牌计数迈向任务经济学的关键转折CodeBurn 的发布,是 AI 应用生态的一个分水岭时刻。这款开源分析工具由一位饱受 AI 编程助手不透明且不断攀升成本困扰的开发者创建,它直击了一个根本痛点:正在规模化使用 AI 工具的开发者与企业,缺乏对其预算究竟消耗在哪些具体任务Agent-Cache 解锁 AI 智能体规模化:统一缓存如何破解百亿美元部署瓶颈AI 行业对模型能力的执着追求催生了一个矛盾局面:尽管基于 LangChain、LangGraph 等框架构建的智能体展现出卓越的推理能力,但其运营成本对于大规模部署而言仍难以为继。每个组件——LLM API 调用、外部工具执行和多轮会话管坎帕拉API逆向工程平台:为AI智能体时代解锁遗留软件宝藏Kampala正式亮相,其核心理念直指软件集成的根本性约束。该公司的旗舰产品并非又一款机器人流程自动化(RPA)工具或可视化爬虫框架,而是采用了一套精密的中间人(MITM)代理架构。该架构能实时拦截、解码并建模应用程序客户端与服务器之间的结查看来源专题页Hacker News 已收录 2018 篇文章

相关专题

decentralized AI29 篇相关文章open source AI117 篇相关文章large language model18 篇相关文章

时间归档

March 20262347 篇已发布文章

延伸阅读

Routstr协议:去中心化AI推理能否挑战云计算霸权?一项名为Routstr的新协议正试图通过创建一个去中心化的推理计算市场,颠覆由巨头主导的集中式AI基础设施格局。它通过点对点网络连接闲置GPU资源与AI开发者,承诺在显著降低成本的同时,增强系统对云寡头垄断的抵御韧性。主权AI革命:个人计算如何夺回智能创造权AI发展的重心正从集中式数据中心向分布式个人计算环境迁移。主权AI——这一让个人能在消费级硬件上训练和控制强大模型的概念——正从边缘理念变为可触及的现实。算法效率的突破与数据自主需求的激增,共同推动了这场静默变革。MiniMind纯PyTorch GPT训练框架问世,大语言模型开发走向民主化开源项目MiniMind正挑战一个固有认知:训练大语言模型必须依赖专有、工业级基础设施。它提供了一个完全用标准PyTorch编写的、功能齐全的端到端GPT训练流程,为研究人员和小型团队提供了一份透明的蓝图,使其能够独立构建基础AI模型。本地光标的静默革命:本地AI智能体如何重塑数字主权人工智能领域正经历一场静默而深刻的变革。开源框架Local Cursor的出现,挑战了主导行业的“云优先”范式。这场向设备端智能的迁移,承诺了前所未有的隐私性、零延迟交互与真正的用户主权,或将颠覆订阅经济模式。

常见问题

这次模型发布“Covenant-72B Completes Training, Ushering in Decentralized AI Era”的核心内容是什么?

The AI development landscape has reached a pivotal inflection point with the successful completion of the Covenant-72B pre-training phase. This achievement represents the culminati…

从“How does Covenant-72B decentralized training actually work technically?”看,这个模型发布为什么重要?

The completion of Covenant-72B's pre-training is a monumental engineering feat that solves a series of complex technical challenges inherent to decentralized machine learning. The core innovation lies not in a novel mode…

围绕“What are the real-world use cases for an open, decentralized AI model?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。