做多AI,做空AGI:市场为何押注超级智能不会很快到来

Hacker News May 2026
来源:Hacker News归档:May 2026
一场悄然却决定性的转变正在重塑AI投资格局:资金涌入能带来即时回报的垂直应用,同时押注通用人工智能(AGI)不会很快到来。这并非风险规避,而是市场对AGI神话的集体理性化。

“做多AI,做空AGI”这句口号,捕捉到了科技投资领域一场深刻的变革。市场正在用资本投票:数十亿美元涌入代码生成、药物发现和客服自动化等能带来即时投资回报的应用,同时却在对AGI时间线的看跌押注上不断增加头寸。这并非单纯的谨慎,而是整个行业认知走向成熟的表现。投资者认识到,AGI所需的认知架构突破、能源解决方案和治理框架,远比预期复杂。结果是研发资源的重新分配:大模型公司正在收缩“通用模型”的野心,转而专注于特定垂直领域的微调;风险投资更青睐那些商业模式清晰、客户粘性强的初创公司,而非那些空谈AGI愿景的团队。

技术深度解析

“做多AI,做空AGI”这一论点建立在根本性的技术现实之上:驱动当今AI突破的架构,与AGI所需的架构截然不同。当前的大语言模型(LLM),如GPT-4、Claude 3.5和Gemini 1.5,都基于Transformer架构——一种擅长模式匹配但缺乏真正推理、规划或因果理解的序列到序列模型。

规模化的天花板: 主流范式一直是规模化计算、数据和参数。然而,来自多个实验室的最新研究显示,回报正在递减。从GPT-2到GPT-4一直成立的“规模化定律”,如今正显现出饱和迹象。例如,MMLU基准测试——一项衡量广泛知识掌握程度的标准——其分数提升已从每代模型10多分的跃升,放缓至2到3分。下表展示了这一趋势在主要模型中的体现:

| 模型 | 参数 | MMLU分数 | 训练计算量(FLOPs) | 年份 |
|---|---|---|---|---|
| GPT-3 | 175B | 43.9 | 3.14e23 | 2020 |
| GPT-4 | ~1.8T(估计) | 86.4 | 2.1e25 | 2023 |
| GPT-4o | ~200B(估计) | 88.7 | 1.0e25 | 2024 |
| Claude 3.5 Sonnet | — | 88.3 | — | 2024 |
| Gemini 1.5 Pro | — | 85.9 | — | 2024 |
| Llama 3 405B | 405B | 87.8 | 3.8e24 | 2024 |

数据要点: GPT-4o与Llama 3 405B之间的MMLU分数差距不到1分,尽管两者参数相差2倍,训练预算也大相径庭。这表明,纯粹的规模化正在触及天花板;进一步的提升需要架构创新,而不仅仅是更大的模型。

AGI的鸿沟: AGI至少需要当前架构所缺乏的三项突破:
1. 因果推理: 当前模型是关联性的,而非因果性的。它们无法理解某事“为什么”发生,只能基于统计模式预测下一个词元。
2. 长期规划: Transformer的上下文窗口有限(即使拥有100万以上的词元上下文,它们在多步骤规划任务上仍然表现挣扎)。
3. 能源效率: 单次GPT-4训练运行估计消耗50 GWh——相当于5000个美国家庭一年的用电量。AGI所需的能源将高出数个数量级。

开源信号: 开源社区也在用代码投票。像llama.cpp(超过6万星标)这样的仓库专注于高效的本地推理,而非AGI。vLLM(超过3万星标)优化了生产环境下的服务吞吐量。LangChain(超过9万星标)则致力于将LLM串联起来用于实际应用。这些都不是AGI项目;它们是为狭义AI部署提供的基础设施。

关键玩家与案例研究

市场对狭义AI的偏好,体现在主要玩家的战略以及垂直领域初创公司的成功之中。

OpenAI: 尽管其使命是AGI,但OpenAI最赚钱的产品是ChatGPT——一个狭义的对话式AI。其收入模式依赖于订阅以及用于编程、写作和客户支持的API使用。该公司已悄然从“面向所有人的AGI”转向“企业级AI工具”。其GPT Store和自定义GPT明确针对垂直应用。

Anthropic: 虽然创立时专注于AGI安全,但Anthropic的Claude如今主要面向企业用例进行营销:文档分析、代码生成和客户服务。其“宪法式AI”方法旨在让狭义AI更安全,而非构建AGI。

垂直AI初创公司: 真正的行动发生在垂直领域。例如:

| 公司 | 垂直领域 | 产品 | 估值(估计) | 收入模式 |
|---|---|---|---|---|
| GitHub Copilot | 代码生成 | AI结对编程 | 100亿美元以上(微软) | 订阅(10-39美元/用户/月) |
| Recursion Pharmaceuticals | 药物发现 | AI驱动的分子设计 | 50亿美元以上 | 合作+授权 |
| Jasper | 营销内容 | AI文案撰写 | 15亿美元 | 订阅(49-499美元/月) |
| Harvey | 法律 | 面向律所的AI | 7亿美元 | 订阅 |
| Abridge | 医疗保健 | 医疗笔记 | 5亿美元 | 按次收费 |

数据要点: 这些公司拥有清晰、可衡量的投资回报率。GitHub Copilot声称能让开发者的编码速度提升55%。Recursion已识别出超过100个药物靶点。Harvey将法律研究时间减少了70%。投资者可以计算出回报——这在AGI领域是不可能的。

AGI怀疑论者: 像Yann LeCun(Meta首席AI科学家)这样的知名人物已公开表示,当前架构永远无法通向AGI。LeCun倡导“世界模型”和替代方法。同样,Gary Marcus一直认为,仅靠深度学习是不够的。这些声音在投资圈中正获得越来越多的关注。

行业影响与市场动态

“做多AI,做空AGI”这一论点正在重塑整个AI生态系统。

资金重新分配: 2024年,AI初创公司全球融资500亿美元。其中,70%流向了垂直应用(医疗、法律、金融、代码),20%流向了基础设施(计算、数据、工具),仅有10%流向了“AGI相关”研究。这与2022-2023年相比是一个巨大的转变,当时基础模型公司

更多来自 Hacker News

AgentDeck:这款“游戏主机”或将开启AI智能体研究的新纪元AgentDeck,一个全新的开源平台,旨在通过借鉴游戏主机的设计哲学,解决AI智能体研究中的可复现性危机。研究者不再需要花费数周时间配置环境和追逐依赖项,现在他们可以像插入游戏卡带一样轻松地接入不同的大语言模型(LLM)、记忆模块和工具使快慢学习:终结AI灾难性遗忘的新架构多年来,AI研究的圣杯一直是打造一个能像人类一样持续学习、且不会遗忘已有知识的模型。从简单的分类器到庞大的语言模型,“灾难性遗忘”问题始终困扰着每一个神经网络。如今,一项名为“快慢学习”的全新架构创新,提供了一条切实可行的前进道路。其核心思Audrey:终结AI代理“失忆症”的本地优先记忆层Audrey是一个开源、本地优先的记忆层,旨在解决AI代理中持续存在的“失忆症”问题。当前的代理要么在会话结束后忘记一切,要么依赖基于云端的记忆系统,这会带来隐私风险、延迟和单点故障。Audrey将所有记忆数据——对话历史、用户偏好、项目上查看来源专题页Hacker News 已收录 3346 篇文章

时间归档

May 20261423 篇已发布文章

延伸阅读

AI泡沫破裂:当大语言模型的炒作超越现实生成式AI热潮正显现经典泡沫症状:算力投资失控、产品承诺与实际效用差距拉大、市场叙事沉迷规模而忽视实质。AINews深度剖析大语言模型行业究竟是建立在投机之上,还是拥有坚实基础。GPT Image 2 悄然登场:AI图像生成正转向智能工作流整合AI图像生成领域迎来新选手GPT Image 2。它的出现标志着一个关键行业拐点:对照片级真实感的追逐,正让位于对工作流相关性与专业实用性的争夺。这预示着‘精准时代’的开启,成功不再仅取决于生成能力,更在于整合深度。Trellis 等 AI 智能体如何成为本地企业的数字劳动力一股新的人工智能浪潮正瞄准经济的支柱——本地企业。像 Trellis 这样的产品正超越通用聊天机器人,演变为专业的“AI 员工”,自动化处理关键但重复的客户互动流程。这标志着人工智能价值交付方式的一次重大转变。MoveSmart以5万真实数据点颠覆搬家行业,AI估价器终结价格迷雾MoveSmart推出一款基于5万次真实搬家数据训练的AI估价工具,为传统行业带来变革。该工具通过机器学习模型生成个性化搬家成本估算,以数据驱动精准度取代人工猜测,标志着垂直AI应用正深入解决传统产业痛点。

常见问题

这次模型发布“Long AI, Short AGI: How Markets Are Betting Against Superintelligence”的核心内容是什么?

The slogan 'Long AI, Short AGI' captures a profound transformation in technology investing. Markets are voting with capital: pouring billions into code generation, drug discovery…

从“Why investors are betting against AGI while funding AI apps”看,这个模型发布为什么重要?

The 'Long AI, Short AGI' thesis rests on a fundamental technical reality: the architectures powering today's AI breakthroughs are fundamentally different from what AGI would require. Current large language models (LLMs)…

围绕“Vertical AI startups vs foundation models: which wins?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。