Covenant-72B Completa l'Addestramento, Inaugurando l'Era dell'IA Decentralizzata

Hacker News March 2026
Source: Hacker Newsdecentralized AIopen source AIlarge language modelArchive: March 2026
The Covenant-72B project has completed pre-training, marking a historic milestone as the largest decentralized large language model ever created. This 72-billion-parameter model, t

Il panorama dello sviluppo dell'IA ha raggiunto un punto di svolta cruciale con il completamento con successo della fase di pre-addestramento di Covenant-72B. Questo risultato rappresenta il culmine del più grande sforzo collaborativo e decentralizzato per costruire un modello di linguaggio di grandi dimensioni all'avanguardia, operando completamente al di fuori del tradizionale framework dei data center aziendali iperscalabili. Coordinando l'addestramento di un modello da 72 miliardi di parametri attraverso una rete globale volontaria di nodi di calcolo distribuiti, il progetto ha fornito una potente prova di concetto per un futuro alternativo dell'IA. Covenant-72B.

Analisi Tecnica

Il completamento del pre-addestramento di Covenant-72B è un'impresa ingegneristica monumentale che risolve una serie di complesse sfide tecniche inerenti all'apprendimento automatico decentralizzato. L'innovazione centrale non risiede in un'architettura di modello nuova, ma nello strato di orchestrazione: la suite di protocolli, framework e meccanismi di incentivazione che ha consentito un addestramento stabile ed efficiente su hardware eterogeneo distribuito a livello globale.

L'addestramento tradizionale di modelli di grandi dimensioni si basa su interconnessioni strettamente accoppiate e ad alta larghezza di banda all'interno di un singolo data center per sincronizzare i gradienti su migliaia di GPU identiche. Il progetto Covenant ha dovuto superare latenza, turnover dei nodi (partecipanti che si uniscono e lasciano), varianza dell'hardware e problemi di fiducia. Ciò è stato ottenuto attraverso una combinazione di tecniche di addestramento asincrono con checkpoint robusti, un nuovo protocollo di calcolo verificabile per garantire che i partecipanti eseguissero correttamente i loro compiti di addestramento assegnati, e un sistema di incentivi basato su token che ricompensa il contributo in base a unità di lavoro verificabili e qualità dei dati.

Una svolta critica è stata lo sviluppo di un ottimizzatore distribuito tollerante ai guasti in grado di gestire ritardi significativi e aggiornamenti parziali senza divergere. Ciò consente al modello di progredire anche quando una parte considerevole della rete è temporaneamente offline o lenta. Inoltre, il progetto ha implementato un routing e uno sharding dei dati avanzati per garantire la privacy e l'integrità dei dati di addestramento su nodi non attendibili, una necessità per gestire i diversi dataset richiesti per il pre-addestramento.

Il risultato è un modello da 72B parametri la cui traiettoria di addestramento e prestazioni finali sui benchmark dimostrano che la coordinazione decentralizzata può, per la prima volta, eguagliare la stabilità precedentemente esclusiva dei cluster centralizzati. Ciò convalida un nuovo stack tecnico per lo sviluppo dell'IA, costruito sulla resilienza e sulla partecipazione volontaria piuttosto che sulla spesa in conto capitale per l'infrastruttura fisica.

Impatto sul Settore

Il successo di Covenant-72B invia onde d'urto attraverso l'industria dell'IA, sfidandone i presupposti economici e operativi fondamentali. Per anni, la narrativa è stata che costruire IA di frontiera richieda miliardi di capitale per i data center, creando un fossato insormontabile per tutti tranne le aziende e le nazioni più finanziate. Questo progetto smantella quella narrativa, dimostrando che risorse collettive e distribuite possono essere mobilitate per ottenere un risultato simile.

L'impatto immediato è la democratizzazione dell'accesso. Ricercatori indipendenti, istituzioni accademiche e startup più piccole hanno ora un percorso praticabile per contribuire e beneficiare dello sviluppo di modelli su scala di frontiera senza bisogno di sponsorizzazioni aziendali o crediti cloud. Ciò abbassa la barriera all'ingresso per nuove ricerche e specializzazioni tramite fine-tuning, potenzialmente scatenando un'ondata di innovazione in applicazioni di nicchia e verticali che non sono economiche per i modelli aziendali generici.

La trasparenza e la verificabilità diventano caratteristiche intrinseche

More from Hacker News

GPT-Rosalind: Come l'IA di biologia di OpenAI ridefinisce la scoperta scientificaOpenAI's introduction of GPT-Rosalind signals a definitive strategic turn in artificial intelligence development. RatherCrisi da Affaticamento dell'Agente: Come gli Assistenti di Codifica AI Stanno Interrompendo gli Stati di Flusso degli SviluppatoriThe initial euphoria surrounding AI-powered coding assistants has given way to a sobering reality check across the develLa Gambetto del Pellicano: Come i modelli da 35B parametri sui laptop stanno ridefinendo la frontiera dell'IAThe recent demonstration of a 35-billion parameter model, colloquially referenced in community discussions as the 'PelicOpen source hub2021 indexed articles from Hacker News

Related topics

decentralized AI29 related articlesopen source AI117 related articleslarge language model18 related articles

Archive

March 20262347 published articles

Further Reading

Protocollo Routstr: L'inferenza AI decentralizzata può sfidare il dominio del cloud computing?Un nuovo protocollo chiamato Routstr sta tentando di sconvolgere il panorama dell'infrastruttura AI centralizzata creandLa Rivoluzione dell'IA Sovrana: Come l'Informatica Personale Sta Riconquistando la Creazione di IntelligenzaIl fulcro dello sviluppo dell'IA si sta spostando dai data center centralizzati agli ambienti di calcolo personale distrL'addestramento GPT in PyTorch puro di MiniMind democratizza lo sviluppo di modelli linguistici di grandi dimensioniUn nuovo progetto open-source chiamato MiniMind sfida l'idea che l'addestramento di modelli linguistici di grandi dimensLa Rivoluzione Silenziosa di Local Cursor: Come gli Agenti di IA Locali Stanno Ridefinendo la Sovranità DigitaleUn cambiamento silenzioso ma profondo è in atto nell'intelligenza artificiale. L'emergere di Local Cursor, un framework

常见问题

这次模型发布“Covenant-72B Completes Training, Ushering in Decentralized AI Era”的核心内容是什么?

The AI development landscape has reached a pivotal inflection point with the successful completion of the Covenant-72B pre-training phase. This achievement represents the culminati…

从“How does Covenant-72B decentralized training actually work technically?”看,这个模型发布为什么重要?

The completion of Covenant-72B's pre-training is a monumental engineering feat that solves a series of complex technical challenges inherent to decentralized machine learning. The core innovation lies not in a novel mode…

围绕“What are the real-world use cases for an open, decentralized AI model?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。