从零到智能体:为什么在AI新架构中,工作流所有权比模型所有权更重要

Hacker News May 2026
来源:Hacker Newsagentic workflowLLM orchestration归档:May 2026
一篇详细教程展示了单个开发者如何利用开源库和大语言模型,在数小时内组装出一个可运行的AI智能体。这标志着构建自主智能体的门槛已经崩塌,行业焦点正从“谁拥有最好的模型”转向“谁拥有最高效的工作流”。

最近发布的一篇分步教程演示了如何仅使用开源工具和大语言模型,从零开始构建一个基础AI智能体。该智能体能够分解用户目标、调用外部工具(网络搜索、计算器、文件系统),并迭代其计划直至任务完成。整个系统运行在一台标准笔记本电脑上,除LLM推理外无需任何API费用。这不仅仅是一次技术练习,更是AI行业的一个分水岭时刻。直到不久前,构建一个自主智能体还需要一个强化学习专家团队、RLlib等复杂框架或自定义多任务训练管道,以及昂贵的计算集群访问权限。如今,成熟的LLM充当推理核心,轻量级编排库(如LangGraph、CrewAI)则让单个开发者也能在几小时内完成过去需要数周才能实现的工作。教程中使用的智能体架构——一个在“思考”和“行动”之间循环的简单循环——正在成为AI应用的新默认范式。其影响深远:如果智能体可以免费构建,那么竞争优势就不再来自模型本身,而是来自定义智能体如何思考、行动和学习的编排逻辑。

技术深度解析

该教程逐步讲解了一个经典的智能体架构:一个在推理与行动之间交替的循环。其核心是一个LLM(本例中是通过Ollama本地运行的Llama 3.1 70B),充当“大脑”。智能体接收用户提示,生成计划,然后调用一组预定义工具——一个网络搜索API、一个计算器和一个文件读写函数。每个工具向LLM返回结构化数据,LLM再决定下一步。这个循环持续进行,直到智能体发出“任务完成”信号或达到最大迭代次数。

架构分解:
1. 编排器: 一个使用`langgraph`库(来自LangChain)定义状态机的Python脚本。图中的每个节点代表一个状态:“思考”、“行动”、“观察”。边则根据LLM的输出定义状态转换。
2. 工具注册表: 一个将工具名称映射到Python函数的字典。每个函数都有一个LLM可读的JSON模式。LLM输出一个类似`{"tool": "web_search", "args": {"query": "latest AI news"}}`的JSON对象。
3. 记忆: 一个简单的列表,包含之前的(行动、观察)对,附加到系统提示中。这为智能体提供了短期上下文。教程指出,对于更长的会话,会使用向量数据库(ChromaDB)来存储和检索相关的历史交互。
4. 安全防护: 一个基于正则表达式的过滤器,阻止对危险系统命令(例如`rm -rf /`)的工具调用。LLM也被提示拒绝有害请求。

相关的开源仓库:
- LangGraph(GitHub: langchain-ai/langgraph,约45k星):一个用于构建有状态、多参与者LLM应用的库。它提供了教程中使用的基于图的编排功能。
- CrewAI(GitHub: joaomdmoura/crewAI,约25k星):一个用于编排角色扮演AI智能体的框架。它抽象掉了许多底层状态机逻辑。
- AutoGPT(GitHub: Significant-Gravitas/AutoGPT,约170k星):开创性的自主智能体项目。虽然现在在生产中使用较少,但其架构启发了工具调用循环模式。
- Ollama(GitHub: ollama/ollama,约120k星):一个用于本地运行LLM的工具。它简化了模型服务,是教程本地设置的核心。

性能数据: 教程在三个任务上对智能体进行了基准测试:“查找OpenAI现任CEO并计算其年龄”、“总结一个本地文本文件”以及“规划一次预算2000美元以内的东京三日游”。结果如下:

| 任务 | 成功率(n=20) | 平均步骤数 | 平均延迟(秒) | 成本(Llama 3.1 70B) |
|---|---|---|---|---|
| CEO年龄 | 95% | 3 | 12.4 | $0.00(本地) |
| 文件总结 | 100% | 2 | 8.1 | $0.00 |
| 旅行规划 | 70% | 8 | 34.2 | $0.00 |

数据要点: 智能体在简单、定义明确的任务上表现出色(成功率95-100%),但在开放式规划任务上表现挣扎(成功率70%)。旅行任务的主要失败模式是网络搜索工具返回过时或不相关的结果。这突显出智能体性能往往受限于工具质量,而非LLM的推理能力。

关键参与者与案例研究

从以模型为中心到以工作流为中心的AI转变,催生了一个由公司和工具组成的新生态系统。关键参与者不再仅仅是基础模型提供商(OpenAI、Anthropic、Google DeepMind),还包括编排层的构建者。

编排框架:
- LangChain/LangGraph: 最流行的框架,GitHub星数合计超过10万。它提供了用于链式调用LLM、工具集成和记忆的统一接口。然而,其复杂性也招致了批评;许多开发者抱怨对于简单任务来说“过度工程化”。
- CrewAI: 专注于多智能体协作。它允许开发者定义具有特定角色(例如“研究员”、“写手”、“评论家”)的智能体,并为其分配任务。在内容生成和市场研究工作流中获得了关注。
- Vercel AI SDK: 一个较新的参与者,专注于流式传输和边缘部署。它与Vercel的无服务器平台紧密集成,在构建AI驱动用户界面的前端开发者中很受欢迎。
- Dify.ai: 一个开源平台,提供可视化拖放界面来构建智能体工作流。它面向非工程师,在中国和东南亚地区得到了快速采用。

主要框架对比:

| 框架 | GitHub星数 | 主要用例 | 学习曲线 | 多智能体支持 | 成本模式 |
|---|---|---|---|---|---|
| LangChain/LangGraph | ~100k | 复杂链、状态机 | 高 | 是(通过LangGraph) | 免费(开源) |
| CrewAI | ~25k | 基于角色的多智能体团队 | 中 | 是(原生) | 免费(开源) |
| Vercel AI SDK | ~15k | 流式传输、边缘部署 | 低 | 否 | 免费(开源) |
| Dify.ai | ~20k | 可视化工作流构建器 | 非常低 | 有限 | 免费层 + 云付费 |

数据要点: LangChain在复杂性和灵活性方面占据主导地位,但其高学习曲线为

更多来自 Hacker News

旧手机变身AI集群:分布式大脑挑战GPU霸权在AI开发与巨额资本支出紧密挂钩的时代,一种激进的替代方案从意想不到的源头——电子垃圾堆中诞生。研究人员成功协调了数百台旧手机组成的分布式集群——这些设备通常因无法运行现代应用而被丢弃——来执行大型语言模型的推理任务。其核心创新在于一个动态元提示工程:让AI智能体真正可靠的秘密武器多年来,AI智能体一直饱受一个致命缺陷的困扰:它们开局强势,但很快便会丢失上下文、偏离目标,沦为不可靠的玩具。业界尝试过扩大模型规模、增加训练数据,但真正的解决方案远比这些更优雅。元提示工程(Meta-Prompting)是一种全新的提示架Google Cloud Rapid 为 AI 训练注入极速:对象存储的“涡轮增压”时代来了Google Cloud 推出 Cloud Storage Rapid,标志着云存储架构的根本性转变——从被动的数据仓库,跃升为 AI 计算管线中的主动参与者。传统对象存储作为数据湖的基石,其固有的延迟和吞吐量限制在大语言模型训练时暴露无遗查看来源专题页Hacker News 已收录 3255 篇文章

相关专题

agentic workflow22 篇相关文章LLM orchestration25 篇相关文章

时间归档

May 20261212 篇已发布文章

延伸阅读

两个周末打造更智能的AI代理:编排能力超越原始模型力量的时代崛起一位独立开发者仅用两个周末构建了一个轻量级AI代理框架,摒弃了黑箱推理方法。通过采用状态机模式,它将规划、执行、验证和恢复分解为可控步骤,在复杂任务上实现了更高成功率,为企业级AI工具开辟了新范式。AI解构时代:从单体巨模到智能体生态人工智能产业正经历一场根本性转向:行业焦点已从竞逐更大规模的模型参数,转向构建由专业化、可互操作的智能体组成的生态系统。这场从“单体智能”到“解构式模块系统”的变革,标志着AI正从炫目的演示阶段,迈入深度融入商业与物理世界的可靠、可扩展自动ModelDocker桌面客户端:将OpenRouter混乱的LLM市场统一为一个指挥中心开源桌面应用ModelDocker正在重塑开发者与重度用户与OpenRouter海量大语言模型交互的方式。通过提供一个集提示缓存、流式输出和并排模型对比于一体的本地客户端,它消除了管理数十个API密钥和端点的繁琐,标志着以用户为中心的AI编工具调用:决定AI智能体革命的隐形瓶颈大语言模型能说会道,但它们真的能“动手”吗?AINews深度揭示:工具调用——即精准调用外部API、数据库和软件的能力——已成为阻碍AI智能体走向生产环境的头号瓶颈。我们从函数定义到错误恢复,绘制了完整的技术路线图。

常见问题

这次模型发布“From Zero to Agent: Why Workflow Ownership Beats Model Ownership in the New AI Stack”的核心内容是什么?

A recently published step-by-step tutorial demonstrates building a basic AI agent from scratch using only open-source tools and a large language model. The agent can break down a u…

从“how to build an AI agent from scratch with open source tools”看,这个模型发布为什么重要?

The tutorial in question walks through a classic agent architecture: a loop that alternates between reasoning and action. At its core is an LLM (in this case, a locally run Llama 3.1 70B via Ollama) that acts as the 'bra…

围绕“best open source agent framework 2025 comparison”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。