Covenant-72B Completa o Treinamento, Inaugurando a Era da IA Descentralizada

Hacker News March 2026
Source: Hacker Newsdecentralized AIopen source AIlarge language modelArchive: March 2026
The Covenant-72B project has completed pre-training, marking a historic milestone as the largest decentralized large language model ever created. This 72-billion-parameter model, t

O cenário de desenvolvimento de IA atingiu um ponto de inflexão crucial com a conclusão bem-sucedida da fase de pré-treinamento do Covenant-72B. Esta conquista representa o ápice do maior esforço colaborativo e descentralizado para construir um modelo de linguagem grande de última geração, operando inteiramente fora da estrutura tradicional dos data centers corporativos de hiperescala. Ao coordenar o treinamento de um modelo de 72 bilhões de parâmetros através de uma rede global voluntária de nós de computação distribuídos, o projeto entregou uma poderosa prova de conceito para um futuro alternativo da IA. Covenant-72B.

Análise Técnica

A conclusão do pré-treinamento do Covenant-72B é um feito de engenharia monumental que resolve uma série de desafios técnicos complexos inerentes ao aprendizado de máquina descentralizado. A inovação central não está em uma arquitetura de modelo nova, mas na camada de orquestração: o conjunto de protocolos, frameworks e mecanismos de incentivo que permitiram um treinamento estável e eficiente em hardware heterogêneo distribuído globalmente.

O treinamento tradicional de modelos grandes depende de interconexões fortemente acopladas e de alta largura de banda dentro de um único data center para sincronizar gradientes entre milhares de GPUs idênticas. O projeto Covenant teve que superar latência, rotatividade de nós (participantes entrando e saindo), variação de hardware e problemas de confiança. Isso foi alcançado através de uma combinação de técnicas de treinamento assíncrono com pontos de verificação robustos, um novo protocolo de computação verificável para garantir que os participantes executassem corretamente suas tarefas de treinamento designadas, e um sistema de incentivo baseado em tokens que recompensa a contribuição com base em unidades de trabalho verificáveis e qualidade dos dados.

Um avanço crítico foi o desenvolvimento de um otimizador distribuído tolerante a falhas que pode lidar com atrasos significativos e atualizações parciais sem divergir. Isso permite que o modelo progrida mesmo quando uma parte considerável da rede está temporariamente offline ou lenta. Além disso, o projeto implementou roteamento e fragmentação de dados avançados para garantir a privacidade e integridade dos dados de treinamento em nós não confiáveis, uma necessidade para lidar com os diversos conjuntos de dados necessários para o pré-treinamento.

O resultado é um modelo de 72B parâmetros cuja trajetória de treinamento e desempenho final em benchmarks demonstram que a coordenação descentralizada pode, pela primeira vez, igualar a estabilidade anteriormente exclusiva dos clusters centralizados. Isso valida uma nova pilha técnica para o desenvolvimento de IA, construída sobre resiliência e participação voluntária em vez de despesas de capital em infraestrutura física.

Impacto na Indústria

O sucesso do Covenant-72B envia ondas sísmicas pela indústria de IA, desafiando suas premissas econômicas e operacionais fundamentais. Durante anos, a narrativa tem sido que construir IA de fronteira exige bilhões em capital para data centers, criando um fosso intransponível para todos, exceto as corporações e nações mais bem financiadas. Este projeto desmonta essa narrativa, provando que recursos coletivos e distribuídos podem ser mobilizados para alcançar um resultado similar.

O impacto imediato é a democratização do acesso. Pesquisadores independentes, instituições acadêmicas e startups menores agora têm um caminho viável para contribuir e se beneficiar do desenvolvimento de modelos em escala de fronteira sem precisar de patrocínio corporativo ou créditos em nuvem. Isso reduz a barreira de entrada para novas pesquisas e ajustes especializados, potencialmente liberando uma onda de inovação em aplicações de nicho e verticais que não são econômicas para modelos corporativos de propósito geral.

A transparência e a auditabilidade tornam-se características inerentes

More from Hacker News

GPT-Rosalind: Como a IA de biologia da OpenAI redefine a descoberta científicaOpenAI's introduction of GPT-Rosalind signals a definitive strategic turn in artificial intelligence development. RatherCrise da Fadiga do Agente: Como os Assistentes de Codificação com IA Estão Quebrando os Estados de Fluxo dos DesenvolvedoresThe initial euphoria surrounding AI-powered coding assistants has given way to a sobering reality check across the develA Gambito do Pelicano: Como modelos de 35B parâmetros em laptops estão redefinindo a fronteira da IAThe recent demonstration of a 35-billion parameter model, colloquially referenced in community discussions as the 'PelicOpen source hub2021 indexed articles from Hacker News

Related topics

decentralized AI29 related articlesopen source AI117 related articleslarge language model18 related articles

Archive

March 20262347 published articles

Further Reading

Protocolo Routstr: A inferência de IA descentralizada pode desafiar o domínio da computação em nuvem?Um novo protocolo chamado Routstr está tentando revolucionar o cenário de infraestrutura de IA centralizada criando um mRevolução da IA Soberana: Como a Computação Pessoal Está Recuperando a Criação de InteligênciaO foco do desenvolvimento de IA está mudando de data centers centralizados para ambientes de computação pessoal distribuO treinamento GPT em PyTorch puro do MiniMind democratiza o desenvolvimento de modelos de linguagem grandesUm novo projeto de código aberto chamado MiniMind está desafiando a noção de que treinar modelos de linguagem grandes reA Revolução Silenciosa do Local Cursor: Como os Agentes de IA Local Estão Redefinindo a Soberania DigitalUma mudança silenciosa, mas profunda, está em curso na inteligência artificial. O surgimento do Local Cursor, uma estrut

常见问题

这次模型发布“Covenant-72B Completes Training, Ushering in Decentralized AI Era”的核心内容是什么?

The AI development landscape has reached a pivotal inflection point with the successful completion of the Covenant-72B pre-training phase. This achievement represents the culminati…

从“How does Covenant-72B decentralized training actually work technically?”看,这个模型发布为什么重要?

The completion of Covenant-72B's pre-training is a monumental engineering feat that solves a series of complex technical challenges inherent to decentralized machine learning. The core innovation lies not in a novel mode…

围绕“What are the real-world use cases for an open, decentralized AI model?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。