Covenant-72B Voltooit Training, Luidt Gedecentraliseerd AI-tijdperk In

Hacker News March 2026
Source: Hacker Newsdecentralized AIopen source AIlarge language modelArchive: March 2026
The Covenant-72B project has completed pre-training, marking a historic milestone as the largest decentralized large language model ever created. This 72-billion-parameter model, t

Het AI-ontwikkelingslandschap heeft een cruciaal kantelpunt bereikt met de succesvolle voltooiing van de pre-trainingsfase van Covenant-72B. Deze prestatie is het hoogtepunt van de grootste gedecentraliseerde, collaboratieve inspanning om een state-of-the-art groot taalmodel te bouwen, dat volledig buiten het traditionele kader van zakelijke hyperscale datacenters opereert. Door de training van een model met 72 miljard parameters te coördineren via een vrijwillig, wereldwijd netwerk van gedistribueerde rekenknooppunten, heeft het project een krachtig proof-of-concept geleverd voor een alternatieve AI-toekomst.

Technische Analyse

De voltooiing van de pre-training van Covenant-72B is een monumentale technische prestatie die een reeks complexe uitdagingen oplost die inherent zijn aan gedecentraliseerd machine learning. De kerninnovatie ligt niet in een nieuwe modelarchitectuur, maar in de orchestratielaag—de set protocollen, frameworks en incentive-mechanismen die stabiele, efficiënte training over heterogene, wereldwijd verspreide hardware mogelijk maakten.

Traditionele training van grote modellen is afhankelijk van strak gekoppelde, hoogbandbreedte-verbindingen binnen één datacenter om gradients over duizenden identieke GPU's te synchroniseren. Het Covenant-project moest latency, node-churn (deelnemers die komen en gaan), hardware-variatie en vertrouwenskwesties overwinnen. Dit werd bereikt door een combinatie van asynchrone trainingstechnieken met robuuste checkpointing, een nieuw verifieerbaar rekenprotocol om te zorgen dat deelnemers hun toegewezen trainingstaken correct uitvoerden, en een token-gebaseerd incentivesysteem dat bijdragen beloont op basis van verifieerbare werkeenheden en data-kwaliteit.

Een kritische doorbraak was de ontwikkeling van een fouttolerante gedistribueerde optimizer die aanzienlijke vertragingen en gedeeltelijke updates aankan zonder te divergeren. Hierdoor kan het model vooruitgang boeken zelfs wanneer een aanzienlijk deel van het netwerk tijdelijk offline of traag is. Bovendien implementeerde het project geavanceerde data-routing en sharding om de privacy en integriteit van trainingsdata over niet-vertrouwde knooppunten te waarborgen, een noodzaak voor het verwerken van de diverse datasets die nodig zijn voor pre-training.

Het resultaat is een model van 72B parameters waarvan het trainingsverloop en de uiteindelijke benchmarkprestaties aantonen dat gedecentraliseerde coördinatie voor het eerst de stabiliteit kan evenaren die voorheen exclusief was voor gecentraliseerde clusters. Dit valideert een nieuwe technische stack voor AI-ontwikkeling, een die is gebouwd op veerkracht en vrijwillige deelname in plaats van kapitaaluitgaven aan fysieke infrastructuur.

Impact op de Industrie

Het succes van Covenant-72B stuurt schokgolven door de AI-industrie en daagt de fundamentele economische en operationele aannames uit. Jarenlang was het verhaal dat het bouwen van frontier-AI miljarden aan kapitaal voor datacenters vereiste, wat een onoverkomelijke gracht creëerde voor iedereen behalve de best gefinancierde bedrijven en landen. Dit project ontkracht dat verhaal en bewijst dat collectieve, gedistribueerde middelen gemobiliseerd kunnen worden om een vergelijkbaar resultaat te bereiken.

De directe impact is de democratisering van toegang. Onafhankelijke onderzoekers, academische instellingen en kleinere startups hebben nu een haalbare weg om bij te dragen aan en te profiteren van frontier-schaal modelontwikkeling, zonder zakelijke sponsoring of cloud-tegoeden nodig te hebben. Dit verlaagt de drempel voor nieuw onderzoek en gespecialiseerde fine-tuning, wat mogelijk een golf van innovatie kan ontketenen in niche- en verticale toepassingen die onrendabel zijn voor algemene zakelijke modellen.

Transparantie en controleerbaarheid worden inherente kenmerken

More from Hacker News

CodeBurn legt de verborgen kostencrisis van AI bloot: van tokentelling tot taakgebaseerde economieThe release of CodeBurn, an open-source analysis tool created by a developer facing opaque and escalating costs from AI Agent-Cache ontgrendelt de schaalbaarheid van AI-agents: hoe unified caching de $10 miljard-implementatieknelpunt oplostThe AI industry's relentless focus on model capabilities has created a paradoxical situation: while agents built on framKampala's API reverse engineering-platform kan legacy-software ontsluiten voor het AI-agenttijdperkKampala has officially launched with a proposition that challenges the fundamental constraints of software integration. Open source hub2018 indexed articles from Hacker News

Related topics

decentralized AI29 related articlesopen source AI117 related articleslarge language model18 related articles

Archive

March 20262347 published articles

Further Reading

Routstr Protocol: Kan gedecentraliseerde AI-inferentie de dominantie van cloud computing uitdagen?Een nieuw protocol genaamd Routstr probeert de gecentraliseerde AI-infrastructuur te ontwrichten door een gedecentraliseDe Soevereine AI-revolutie: Hoe Persoonlijke Computersystemen de Creatie van Intelligentie TerugwinnenDe focus van AI-ontwikkeling verschuift van gecentraliseerde datacenters naar gedistribueerde persoonlijke computeromgevMiniMind's Pure PyTorch GPT-training democratiseert de ontwikkeling van grote taalmodelenEen nieuw open-source project genaamd MiniMind daagt het idee uit dat het trainen van grote taalmodelen propriëtaire, inDe Stille Revolutie van Local Cursor: Hoe Lokale AI-agenten Digitale Soevereiniteit HerdefiniërenEr vindt een stille maar diepgaande verschuiving plaats in kunstmatige intelligentie. De opkomst van Local Cursor, een o

常见问题

这次模型发布“Covenant-72B Completes Training, Ushering in Decentralized AI Era”的核心内容是什么?

The AI development landscape has reached a pivotal inflection point with the successful completion of the Covenant-72B pre-training phase. This achievement represents the culminati…

从“How does Covenant-72B decentralized training actually work technically?”看,这个模型发布为什么重要?

The completion of Covenant-72B's pre-training is a monumental engineering feat that solves a series of complex technical challenges inherent to decentralized machine learning. The core innovation lies not in a novel mode…

围绕“What are the real-world use cases for an open, decentralized AI model?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。