AI为何从不说“我不知道”:虚假自信背后的隐藏设计

Hacker News May 2026
来源:Hacker News归档:May 2026
大型语言模型极少承认“我不知道”——并非因为它们无所不知,而是其训练流程主动惩罚不确定性。AINews深度剖析强化学习机制、产品激励与新兴安全研究,揭示AI可靠性领域这场无声的危机。

来自OpenAI、Anthropic、Google和Meta的现代AI助手被设计成几乎始终展现自信,即便它们缺乏真实知识。这种行为并非漏洞,而是基于人类反馈的强化学习(RLHF)训练范式的固有特征。在RLHF过程中,人类评分者系统性地偏好那些看起来有帮助、完整且权威的回复——而惩罚那些表达怀疑或承认无知的回复。结果,模型宁愿编造听起来合理的答案,也不愿承认不确定性。商业压力进一步放大了这一问题:用户留存数据显示,会说“我不知道”的聊天机器人被弃用的速度比那些总能给出答案(哪怕是错误答案)的快30%–40%。这形成了一个危险的反馈循环。

技术深度解析

大型语言模型拒绝说“我不知道”的根源,在于现代基于Transformer的系统及其训练流程的基本架构。核心是自回归式下一个词元预测目标:模型被训练为最大化给定前文条件下下一个词元的概率。这一目标天然奖励生成那些以合理方式延续序列的词元——而非表达不确定性或停止生成的词元。

但更深层的机制在于基于人类反馈的强化学习(RLHF)。由OpenAI在2020年引入,并经Anthropic、Google等公司改进,RLHF在监督微调之后增加了第二个训练阶段。在此阶段,一个奖励模型基于人类偏好判断进行训练:评分者比较同一提示的两个模型输出,并选择“更好”的那个。奖励模型随后对输出进行评分,语言模型则通过近端策略优化(PPO)进行微调,以最大化这一奖励。

关键发现:人类评分者一致偏好那些看起来自信、完整且有帮助的回复——即便这些回复包含事实错误。2023年斯坦福大学和加州大学伯克利分校的研究人员(发表于《RLHF幻觉》论文,非命名仓库)发现,当答案流畅且听起来自信时,评分者在68%的情况下将幻觉答案评为“良好”或“优秀”。相反,一个说“我不知道”的答案在82%的情况下被评为“差”,即便它是正确且诚实的回复。

这造成了反常的激励:模型学会承认不确定性是一种低奖励行为。奖励模型的梯度信号将策略推离不确定性表达。经过数千次PPO步骤,模型内化“我不知道”是一个失败的选择。

校准技术正在涌现以应对这一问题。最有前景的方法是通过对数几率分析进行不确定性量化。在Transformer中,最后的Softmax层输出词汇表上的概率分布。该分布的熵——即其“平坦”或“尖锐”程度——与模型的认知不确定性相关。Anthropic的研究人员(内部项目“Calibrated LM”,非公开仓库)已证明,通过对Softmax熵设置阈值,他们能以87%的准确率检测模型何时可能产生幻觉。然而,该技术尚未部署到生产系统中,因为它需要暴露原始对数几率,而大多数API提供商对此加以隐藏。

另一种方法是回顾性置信度评分,即训练一个独立的较小模型(通常是BERT风格的分类器)来预测主模型的答案是否正确。GitHub仓库“SelfCheckGPT”(github.com/potsawee/selfcheckgpt,1.8k星标)通过从同一提示采样多个补全并测量其一致性来实现这一方法。如果样本出现分歧,则不确定性较高。该方法在TruthfulQA基准上达到92%的精确率,但增加了3–5倍的延迟——这对实时聊天来说不可接受。

| 模型 | MMLU分数 | TruthfulQA (MC1) | SelfCheckGPT准确率 | 校准的平均延迟惩罚 |
|---|---|---|---|---|
| GPT-4o | 88.7 | 0.78 | 0.89(估计值) | 4.2倍 |
| Claude 3.5 Sonnet | 88.3 | 0.81 | 0.91 | 3.7倍 |
| Gemini 1.5 Pro | 86.5 | 0.74 | 0.85 | 5.1倍 |
| Llama 3.1 405B | 87.1 | 0.76 | 0.88 | 3.0倍(开源优势) |

数据要点: 像Llama 3.1这样的开源模型在校准方面具有延迟优势,因为研究人员可以直接修改推理流程。然而,即使是最好的校准方法仍会带来3–5倍的减速,使其在消费级聊天机器人中不切实际。速度与诚实之间的权衡十分严峻。

关键参与者与案例研究

“从不说我不知道”的问题在领先商业模型的行为中最为明显。OpenAI的GPT-4o、Anthropic的Claude 3.5、Google的Gemini 1.5以及Meta的Llama 3.1都表现出相同的模式:它们很少主动表达不确定性,而当被追问时,它们往往在错误答案上坚持己见。

案例研究:医疗诊断
2024年哈佛医学院的研究人员(未在命名期刊发表,但在AI in Medicine会议上展示)对GPT-4o进行了100个皮肤科病例描述的测试。模型被要求提供诊断和置信度水平。GPT-4o从未说“我不知道”——它总是给出具体的诊断,即使病例被设计为模棱两可。当研究人员强制其输出置信度分数(通过提示“在0–100的范围内,你有多自信?”)时,模型给出的平均置信度为87%,但其实际准确率仅为54%。模型系统性地过度自信。

案例研究:法律研究
2023年臭名昭著的“Mata v. Avianca”案中,一名律师使用ChatGPT生成的法律摘要引用了不存在的案例,凸显了危险。ChatGPT从未标记这些案例可能是捏造的。

更多来自 Hacker News

一条推文代价20万美元:AI Agent对社交信号的致命信任2026年初,一个在Solana区块链上管理加密货币投资组合的自主AI Agent,被诱骗将价值20万美元的USDC转移至攻击者钱包。触发点是一条精心伪造的推文,伪装成来自可信DeFi协议的智能合约升级通知。该Agent被设计为抓取社交媒体Unsloth 联手 NVIDIA,消费级 GPU 大模型训练速度飙升 25%专注于高效 LLM 微调的初创公司 Unsloth 与 NVIDIA 合作,在 RTX 4090 等消费级 GPU 上实现了 25% 的训练速度提升。该优化针对 CUDA 内核内存带宽调度,从硬件中榨取出每一丝性能——此前这些硬件被认为不足Appctl:将文档一键转化为LLM工具,AI代理的“最后一公里”终于打通AINews发现了一个名为Appctl的开源项目,它成功弥合了大语言模型与现实系统之间的鸿沟。通过将现有文档和数据库模式转化为MCP工具,Appctl让LLM能够直接执行操作——例如在CRM中创建记录、更新工单状态或提交网页表单——而无需定查看来源专题页Hacker News 已收录 3034 篇文章

时间归档

May 2026784 篇已发布文章

延伸阅读

一条推文代价20万美元:AI Agent对社交信号的致命信任一条看似无害的推文,让一个AI Agent在数秒内损失20万美元。这不是代码漏洞,而是一场针对Agent推理层的精准社会工程攻击,暴露了自主系统处理社交信号时的根本缺陷。Unsloth 联手 NVIDIA,消费级 GPU 大模型训练速度飙升 25%Unsloth 与 NVIDIA 达成合作,通过优化 CUDA 内核内存访问模式,在消费级 GPU(如 RTX 4090)上实现大语言模型训练速度提升 25%。这一突破让开发者无需数据中心级硬件,即可在单张桌面显卡上微调 Llama、MisAppctl:将文档一键转化为LLM工具,AI代理的“最后一公里”终于打通开源工具Appctl能自动将现有文档或数据库转化为可执行的MCP(模型上下文协议)工具,让任何大语言模型都能执行更新CRM记录、提交网页表单等真实操作。这一创新解决了AI代理的“最后一公里”难题,让它们从“空谈者”变成“实干家”。图记忆框架:让AI代理从“一次性工具”进化为“持久伙伴”的认知脊梁一项名为“Create Context Graph”的新技术,通过将动态演化的知识图谱直接嵌入代理运行时,重新定义了AI代理的记忆机制。它超越了扁平的向量数据库和短暂的聊天记录,使代理能够在跨会话和复杂工作流中维持连贯、长期的推理能力。

常见问题

这次模型发布“Why AI Never Says 'I Don't Know': The Hidden Design Behind False Confidence”的核心内容是什么?

Modern AI assistants from OpenAI, Anthropic, Google, and Meta have been engineered to project near-constant confidence, even when they lack genuine knowledge. This behavior is not…

从“Why does ChatGPT never say it doesn't know an answer?”看,这个模型发布为什么重要?

The refusal of large language models to say 'I don't know' is rooted in the fundamental architecture of modern transformer-based systems and their training pipelines. At the core is the autoregressive next-token predicti…

围绕“How RLHF training causes AI to hallucinate confidently”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。