Covenant-72B Completa su Entrenamiento, Marcando el Inicio de la Era de la IA Descentralizada

Hacker News March 2026
Source: Hacker Newsdecentralized AIopen source AIlarge language modelArchive: March 2026
The Covenant-72B project has completed pre-training, marking a historic milestone as the largest decentralized large language model ever created. This 72-billion-parameter model, t

El panorama del desarrollo de la IA ha alcanzado un punto de inflexión crucial con la finalización exitosa de la fase de pre-entrenamiento de Covenant-72B. Este logro representa la culminación del mayor esfuerzo colaborativo y descentralizado para construir un modelo de lenguaje grande de vanguardia, operando completamente fuera del marco tradicional de los centros de datos corporativos a hiperescala. Al coordinar el entrenamiento de un modelo de 72 mil millones de parámetros a través de una red global voluntaria de nodos de computación distribuidos, el proyecto ha entregado una poderosa prueba de concepto para un futuro alternativo de la IA. Covenant-72B.

Análisis Técnico

La finalización del pre-entrenamiento de Covenant-72B es una hazaña de ingeniería monumental que resuelve una serie de complejos desafíos técnicos inherentes al aprendizaje automático descentralizado. La innovación central no radica en una arquitectura de modelo novedosa, sino en la capa de orquestación: el conjunto de protocolos, marcos de trabajo y mecanismos de incentivos que permitieron un entrenamiento estable y eficiente en hardware heterogéneo distribuido globalmente.

El entrenamiento tradicional de modelos grandes depende de interconexiones estrechamente acopladas y de alto ancho de banda dentro de un único centro de datos para sincronizar gradientes a través de miles de GPUs idénticas. El proyecto Covenant tuvo que superar la latencia, la rotación de nodos (participantes que se unen y abandonan), la variación de hardware y los problemas de confianza. Lo logró mediante una combinación de técnicas de entrenamiento asíncrono con puntos de control robustos, un novedoso protocolo de cálculo verificable para garantizar que los participantes ejecutaran correctamente sus tareas de entrenamiento asignadas, y un sistema de incentivos basado en tokens que recompensa la contribución según unidades de trabajo verificables y calidad de los datos.

Un avance crítico fue el desarrollo de un optimizador distribuido tolerante a fallos que puede manejar retrasos significativos y actualizaciones parciales sin divergir. Esto permite que el modelo progrese incluso cuando una parte considerable de la red está temporalmente fuera de línea o es lenta. Además, el proyecto implementó un enrutamiento y fragmentación de datos avanzados para garantizar la privacidad e integridad de los datos de entrenamiento en nodos no confiables, una necesidad para manejar los diversos conjuntos de datos requeridos para el pre-entrenamiento.

El resultado es un modelo de 72B parámetros cuya trayectoria de entrenamiento y rendimiento final en benchmarks demuestran que la coordinación descentralizada puede, por primera vez, igualar la estabilidad que antes era exclusiva de los clústeres centralizados. Esto valida una nueva pila técnica para el desarrollo de IA, construida sobre resiliencia y participación voluntaria en lugar de gasto de capital en infraestructura física.

Impacto en la Industria

El éxito de Covenant-72B envía ondas sísmicas a través de la industria de la IA, desafiando sus suposiciones económicas y operativas fundamentales. Durante años, la narrativa ha sido que construir IA de frontera requiere miles de millones en capital para centros de datos, creando un foso insalvable para todos excepto las corporaciones y naciones mejor financiadas. Este proyecto desmonta esa narrativa, demostrando que los recursos colectivos y distribuidos pueden movilizarse para lograr un resultado similar.

El impacto inmediato es la democratización del acceso. Investigadores independientes, instituciones académicas y startups más pequeñas ahora tienen un camino viable para contribuir y beneficiarse del desarrollo de modelos a escala de frontera sin necesidad de patrocinio corporativo o créditos en la nube. Esto reduce la barrera de entrada para investigaciones novedosas y ajustes especializados, liberando potencialmente una ola de innovación en aplicaciones de nicho y verticales que no son económicas para los modelos corporativos de propósito general.

La transparencia y la auditabilidad se convierten en características inherentes

More from Hacker News

GPT-Rosalind: Cómo la IA de biología de OpenAI redefine el descubrimiento científicoOpenAI's introduction of GPT-Rosalind signals a definitive strategic turn in artificial intelligence development. RatherCrisis de Fatiga del Agente: Cómo los Asistentes de Codificación con IA Están Rompiendo los Estados de Flujo de los DesarrolladoresThe initial euphoria surrounding AI-powered coding assistants has given way to a sobering reality check across the develLa Gambito del Pelícano: Cómo los modelos de 35B parámetros en portátiles están redefiniendo la frontera de la IAThe recent demonstration of a 35-billion parameter model, colloquially referenced in community discussions as the 'PelicOpen source hub2021 indexed articles from Hacker News

Related topics

decentralized AI29 related articlesopen source AI117 related articleslarge language model18 related articles

Archive

March 20262347 published articles

Further Reading

Protocolo Routstr: ¿Puede la inferencia de IA descentralizada desafiar el dominio de la computación en la nube?Un nuevo protocolo llamado Routstr intenta revolucionar el panorama de la infraestructura de IA centralizada creando un La Revolución de la IA Soberana: Cómo la Computación Personal Recupera la Creación de InteligenciaEl foco del desarrollo de la IA se está desplazando de los centros de datos centralizados a entornos de computación persEl entrenamiento GPT de MiniMind en PyTorch puro democratiza el desarrollo de modelos de lenguaje grandesUn nuevo proyecto de código abierto llamado MiniMind desafía la idea de que entrenar modelos de lenguaje grandes requierLa revolución silenciosa de Local Cursor: Cómo los agentes de IA local están redefiniendo la soberanía digitalSe está produciendo un cambio silencioso pero profundo en la inteligencia artificial. La aparición de Local Cursor, un f

常见问题

这次模型发布“Covenant-72B Completes Training, Ushering in Decentralized AI Era”的核心内容是什么?

The AI development landscape has reached a pivotal inflection point with the successful completion of the Covenant-72B pre-training phase. This achievement represents the culminati…

从“How does Covenant-72B decentralized training actually work technically?”看,这个模型发布为什么重要?

The completion of Covenant-72B's pre-training is a monumental engineering feat that solves a series of complex technical challenges inherent to decentralized machine learning. The core innovation lies not in a novel mode…

围绕“What are the real-world use cases for an open, decentralized AI model?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。