Covenant-72B schließt Training ab und läutet dezentrales KI-Zeitalter ein

Hacker News March 2026
Source: Hacker Newsdecentralized AIopen source AIlarge language modelArchive: March 2026
The Covenant-72B project has completed pre-training, marking a historic milestone as the largest decentralized large language model ever created. This 72-billion-parameter model, t

Die Landschaft der KI-Entwicklung hat mit dem erfolgreichen Abschluss der Pre-Training-Phase von Covenant-72B einen entscheidenden Wendepunkt erreicht. Dieser Erfolg stellt den Höhepunkt der größten dezentralen, kollaborativen Anstrengung dar, um ein modernstes großes Sprachmodell zu bauen, das vollständig außerhalb des traditionellen Rahmens von unternehmenseigenen Hyperscale-Rechenzentren operiert. Durch die Koordination des Trainings eines 72-Milliarden-Parameter-Modells über ein freiwilliges, globales Netzwerk verteilter Rechenknoten hat das Projekt einen überzeugenden Machbarkeitsnachweis für eine alternative KI-Zukunft geliefert. Covenant-72B.

Technische Analyse

Der Abschluss des Pre-Trainings von Covenant-72B ist eine monumentale Ingenieursleistung, die eine Reihe komplexer technischer Herausforderungen löst, die dem dezentralen maschinellen Lernen innewohnen. Die Kerninnovation liegt nicht in einer neuartigen Modellarchitektur, sondern in der Orchestrierungsebene – dem Bündel aus Protokollen, Frameworks und Anreizmechanismen, die ein stabiles, effizientes Training über heterogene, global verteilte Hardware ermöglichten.

Das traditionelle Training großer Modelle verlässt sich auf eng gekoppelte, hochbandbreitige Verbindungen innerhalb eines einzelnen Rechenzentrums, um Gradienten über Tausende identischer GPUs zu synchronisieren. Das Covenant-Projekt musste Latenz, Knotenfluktuation (Teilnehmer, die beitreten und gehen), Hardwareunterschiede und Vertrauensprobleme überwinden. Dies wurde durch eine Kombination aus asynchronen Trainingstechniken mit robustem Checkpointing, einem neuartigen verifizierbaren Berechnungsprotokoll, um sicherzustellen, dass Teilnehmer ihre zugewiesenen Trainingsaufgaben korrekt ausführten, und einem Token-basierten Anreizsystem erreicht, das Beiträge basierend auf verifizierbaren Arbeitseinheiten und Datenqualität belohnt.

Ein kritischer Durchbruch war die Entwicklung eines fehlertoleranten, verteilten Optimierers, der erhebliche Verzögerungen und Teilaktualisierungen verarbeiten kann, ohne zu divergieren. Dies ermöglicht es dem Modell, Fortschritte zu machen, selbst wenn ein beträchtlicher Teil des Netzwerks vorübergehend offline oder langsam ist. Darüber hinaus implementierte das Projekt fortschrittliches Data Routing und Sharding, um die Privatsphäre und Integrität der Trainingsdaten über nicht vertrauenswürdige Knoten hinweg zu gewährleisten – eine Notwendigkeit für die Verarbeitung der vielfältigen Datensätze, die für das Pre-Training erforderlich sind.

Das Ergebnis ist ein 72-Milliarden-Parameter-Modell, dessen Trainingsverlauf und finale Benchmark-Leistung zeigen, dass dezentrale Koordination erstmals die Stabilität erreichen kann, die zuvor zentralisierten Clustern vorbehalten war. Dies validiert einen neuen technischen Stack für die KI-Entwicklung, der auf Resilienz und freiwilliger Teilnahme basiert und nicht auf Kapitalaufwand für physische Infrastruktur.

Branchenauswirkungen

Der Erfolg von Covenant-72B sendet seismische Wellen durch die KI-Branche und stellt deren grundlegende wirtschaftliche und operative Annahmen in Frage. Jahrelang lautete die Erzählung, dass der Aufbau von KI an der Grenze des Machbaren Milliarden an Kapital für Rechenzentren erfordere, was einen unüberwindbaren Graben für alle außer den bestfinanzierten Unternehmen und Nationen schaffe. Dieses Projekt widerlegt diese Erzählung und beweist, dass kollektive, verteilte Ressourcen mobilisiert werden können, um ein ähnliches Ergebnis zu erzielen.

Die unmittelbare Auswirkung ist die Demokratisierung des Zugangs. Unabhängige Forscher, akademische Einrichtungen und kleinere Startups haben nun einen gangbaren Weg, zur Entwicklung von Modellen an der Grenze des Machbaren beizutragen und davon zu profitieren, ohne Unternehmenssponsoring oder Cloud-Guthaben zu benötigen. Dies senkt die Eintrittsbarriere für neuartige Forschung und spezialisiertes Fine-Tuning und könnte eine Welle der Innovation in Nischen- und vertikalen Anwendungen freisetzen, die für allgemeine Unternehmensmodelle unwirtschaftlich sind.

Transparenz und Überprüfbarkeit werden zu inhärenten Merkmalen

More from Hacker News

GPT-Rosalind: Wie OpenAIs Biologie-KI die wissenschaftliche Entdeckung neu definiertOpenAI's introduction of GPT-Rosalind signals a definitive strategic turn in artificial intelligence development. RatherAgenten-Erschöpfungskrise: Wie KI-Coding-Assistenten den Flow-Zustand von Entwicklern zerstörenThe initial euphoria surrounding AI-powered coding assistants has given way to a sobering reality check across the develDer Pelikan-Gambit: Wie 35-Milliarden-Parameter-Modelle auf Laptops die KI-Front neu definierenThe recent demonstration of a 35-billion parameter model, colloquially referenced in community discussions as the 'PelicOpen source hub2021 indexed articles from Hacker News

Related topics

decentralized AI29 related articlesopen source AI117 related articleslarge language model18 related articles

Archive

March 20262347 published articles

Further Reading

Routstr-Protokoll: Kann dezentrale KI-Inferenz die Dominanz des Cloud Computing herausfordern?Ein neues Protokoll namens Routstr versucht, die zentralisierte KI-Infrastrukturlandschaft zu verändern, indem es einen Souveräne KI-Revolution: Wie das Personal Computing die Intelligenzschöpfung zurückerobertDer Schwerpunkt der KI-Entwicklung verlagert sich von zentralisierten Rechenzentren hin zu verteilten Personal-ComputingMiniMinds reines PyTorch-GPT-Training demokratisiert die Entwicklung großer SprachmodelleEin neues Open-Source-Projekt namens MiniMind stellt die Vorstellung in Frage, dass das Training großer Sprachmodelle prDie stille Revolution von Local Cursor: Wie lokale KI-Agenten die digitale Souveränität neu definierenIn der künstlichen Intelligenz vollzieht sich ein stiller, aber tiefgreifender Wandel. Das Aufkommen von Local Cursor, e

常见问题

这次模型发布“Covenant-72B Completes Training, Ushering in Decentralized AI Era”的核心内容是什么?

The AI development landscape has reached a pivotal inflection point with the successful completion of the Covenant-72B pre-training phase. This achievement represents the culminati…

从“How does Covenant-72B decentralized training actually work technically?”看,这个模型发布为什么重要?

The completion of Covenant-72B's pre-training is a monumental engineering feat that solves a series of complex technical challenges inherent to decentralized machine learning. The core innovation lies not in a novel mode…

围绕“What are the real-world use cases for an open, decentralized AI model?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。