Covenant-72B Kończy Trening, Wprowadzając Erę Zdecentralizowanej Sztucznej Inteligencji

Hacker News March 2026
Source: Hacker Newsdecentralized AIopen source AIlarge language modelArchive: March 2026
The Covenant-72B project has completed pre-training, marking a historic milestone as the largest decentralized large language model ever created. This 72-billion-parameter model, t

Krajobraz rozwoju sztucznej inteligencji osiągnął kluczowy punkt zwrotny wraz z pomyślnym zakończeniem fazy pre-treningu modelu Covenant-72B. Osiągnięcie to stanowi zwieńczenie największego zdecentralizowanego, wspólnego wysiłku w celu zbudowania zaawansowanego dużego modelu językowego, działającego całkowicie poza tradycyjnymi ramami korporacyjnych centrów danych na ogromną skalę. Dzięki skoordynowaniu treningu modelu o 72 miliardach parametrów w oparciu o dobrowolną, globalną sieć rozproszonych węzłów obliczeniowych, projekt dostarczył przekonujący dowód koncepcji (proof-of-concept) dla alternatywnej przyszłości AI.

Analiza Techniczna

Zakończenie pre-treningu Covenant-72B jest monumentalnym osiągnięciem inżynieryjnym, które rozwiązuje szereg złożonych wyzwań technicznych nieodłącznych dla zdecentralizowanego uczenia maszynowego. Kluczowa innowacja nie leży w nowatorskiej architekturze modelu, ale w warstwie orkiestracji – zestawie protokołów, frameworków i mechanizmów motywacyjnych, które umożliwiły stabilny, efektywny trening na heterogenicznym, globalnie rozproszonym sprzęcie.

Tradycyjny trening dużych modeli opiera się na ściśle sprzężonych, wysokoprzepustowych połączeniach wewnątrz jednego centrum danych w celu synchronizacji gradientów na tysiącach identycznych GPU. Projekt Covenant musiał pokonać opóźnienia, fluktuację węzłów (uczestnicy dołączający i odchodzący), zróżnicowanie sprzętu oraz kwestie zaufania. Osiągnięto to dzięki połączeniu asynchronicznych technik treningowych z solidnym tworzeniem punktów kontrolnych (checkpointing), nowatorskiego protokołu weryfikowalnych obliczeń zapewniającego poprawne wykonanie przydzielonych zadań treningowych przez uczestników oraz tokenowego systemu motywacyjnego nagradzającego wkład na podstawie weryfikowalnych jednostek pracy i jakości danych.

Kluczowym przełomem było opracowanie odpornego na błędy, rozproszonego optymalizatora, który może obsłużyć znaczne opóźnienia i częściowe aktualizacje bez rozbieżności. Pozwala to modelowi na postęp nawet wtedy, gdy znaczna część sieci jest tymczasowo offline lub wolna. Ponadto, projekt wdrożył zaawansowane routowanie i dzielenie danych (sharding), aby zapewnić prywatność i integralność danych treningowych w obrębie niezaufanych węzłów, co jest koniecznością przy przetwarzaniu zróżnicowanych zbiorów danych wymaganych do pre-treningu.

Rezultatem jest model o 72B parametrach, którego trajektoria treningowa i ostateczna wydajność w benchmarkach pokazują, że zdecentralizowana koordynacja może po raz pierwszy dorównać stabilności dotąd zastrzeżonej dla scentralizowanych klastrów. Potwierdza to nowy stos technologiczny (stack) dla rozwoju AI, zbudowany na odporności i dobrowolnym uczestnictwie, a nie na nakładach kapitałowych na fizyczną infrastrukturę.

Wpływ na Branżę

Sukces Covenant-72B wysyła wstrząsy przez branżę AI, podważając jej fundamentalne założenia ekonomiczne i operacyjne. Przez lata panowała narracja, że budowanie AI na najwyższym poziomie (frontier AI) wymaga miliardów kapitału na centra danych, tworząc nieprzekraczalną fosę dla wszystkich poza najlepiej finansowanymi korporacjami i państwami. Ten projekt burzy tę narrację, dowodząc, że zbiorowe, rozproszone zasoby można zmobilizować, aby osiągnąć podobny rezultat.

Bezpośrednim skutkiem jest demokratyzacja dostępu. Niezależni badacze, instytucje akademickie i mniejsze start-upy mają teraz realną ścieżkę, aby przyczynić się do rozwoju modeli na najwyższym poziomie i czerpać z niego korzyści, bez potrzeby korporacyjnego sponsorowania czy kredytów w chmurze. Obniża to próg wejścia dla nowatorskich badań i specjalistycznego dostrajania (fine-tuning), potencjalnie uwalniając falę innowacji w niszowych i branżowych zastosowaniach, które są nieopłacalne dla ogólnych, korporacyjnych modeli.

Przejrzystość i możliwość audytu stają się cechami inherentnymi

More from Hacker News

CodeBurn ujawnia ukryty kryzys kosztów AI: od liczenia tokenów do ekonomii opartej na zadaniachThe release of CodeBurn, an open-source analysis tool created by a developer facing opaque and escalating costs from AI Agent-Cache odblokowuje skalowalność agentów AI: jak ujednolicona pamięć podręczna rozwiązuje wąskie gardło wdrożenia o wartości 10 mld USDThe AI industry's relentless focus on model capabilities has created a paradoxical situation: while agents built on framPlatforma inżynierii wstecznej API Kampali może odblokować oprogramowanie legacy dla ery agentów AIKampala has officially launched with a proposition that challenges the fundamental constraints of software integration. Open source hub2018 indexed articles from Hacker News

Related topics

decentralized AI29 related articlesopen source AI117 related articleslarge language model18 related articles

Archive

March 20262347 published articles

Further Reading

Protokół Routstr: Czy zdecentralizowana inferencja AI może rzucić wyzwanie dominacji chmury obliczeniowej?Nowy protokół o nazwie Routstr próbuje zrewolucjonizować scentralizowaną infrastrukturę AI, tworząc zdecentralizowany ryRewolucja Suwerennej SI: Jak Komputery Osobiste Odbierają Tworzenie InteligencjiOśrodek rozwoju SI przenosi się ze scentralizowanych centrów danych do rozproszonych środowisk komputerów osobistych. SuSzkolenie GPT w czystym PyTorchu od MiniMind demokratyzuje rozwój dużych modeli językowychNowy projekt open-source o nazwie MiniMind podważa przekonanie, że szkolenie dużych modeli językowych wymaga zastrzeżoneCicha Rewolucja Local Cursor: Jak Lokalne Agencje AI Redefiniują Suwerenność CyfrowąW sztucznej inteligencji zachodzi cicha, ale głęboka zmiana. Pojawienie się Local Cursor, otwartoźródłowego frameworka d

常见问题

这次模型发布“Covenant-72B Completes Training, Ushering in Decentralized AI Era”的核心内容是什么?

The AI development landscape has reached a pivotal inflection point with the successful completion of the Covenant-72B pre-training phase. This achievement represents the culminati…

从“How does Covenant-72B decentralized training actually work technically?”看,这个模型发布为什么重要?

The completion of Covenant-72B's pre-training is a monumental engineering feat that solves a series of complex technical challenges inherent to decentralized machine learning. The core innovation lies not in a novel mode…

围绕“What are the real-world use cases for an open, decentralized AI model?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。