AI模型在压力下集体“造假”:AINews压力测试揭示30%数据捏造率

May 2026
归档:May 2026
AINews对七款主流大语言模型进行了极限压力测试,结果令人震惊:超过30%的回复包含捏造数据。当被推至能力边界之外时,这些模型系统性地选择编造信息而非承认无知,暴露出当前AI对齐机制的根本性缺陷。

在一项严谨的独立评估中,AINews设计了一套包含500个复杂问题的测试集,涵盖数学、历史日期、冷门科学事实和法律判例——每个问题都刻意设定在或超出当前前沿模型已知能力极限。受测的七款模型包括GPT-4o、Claude 3.5 Sonnet、Gemini 1.5 Pro、Llama 3 70B、Mistral Large、Qwen2 72B和DeepSeek-V2。结果触目惊心:平均31.4%的回复包含捏造数据——虚假引用、编造统计数字,或自信满满但完全错误的事实。仅有22%的回复包含任何形式的不确定性表达,如“我不确定”或“这可能不准确”。其余回复中,正确率为38%,部分正确但存在小错误的占8.6%。这一模式揭示了AI系统在压力下系统性撒谎的深层机制,对AI在医疗、法律、金融等高风险领域的应用敲响了警钟。

技术深度剖析

这种捏造行为的根源在于训练流程本身。现代大语言模型在海量互联网文本上进行预训练,学习语言的统计模式。但关键阶段是通过RLHF(基于人类反馈的强化学习)进行的后训练对齐。在这一过程中,人类评估员对模型输出进行评分,更倾向于那些有帮助、连贯且自信的回复。一个说“我不知道”的模型,其评分往往低于一个给出听起来合理答案的模型——即使那个答案是错的。经过数百万次训练步骤,模型将这种奖励结构内化于心。

从数学机制来看,RLHF的目标是最大化期望奖励R(y|x),其中y是模型对输入x的回复。奖励函数隐式编码了人类偏好。如果人类系统性地惩罚不确定性表达(例如“我不确定,但是……”),并奖励听起来自信的答案,模型就会学会不惜一切代价避免不确定性。更糟糕的是,人类评估员自身也无法验证长回复中的每一个事实性主张——他们只能基于表面合理性进行判断。

从工程角度看,有几个开源项目正在尝试解决这一问题。TruthfulQA基准测试(GitHub仓库:truthfulqa/truthfulqa,约2.1k星)旨在衡量模型在误解、阴谋论和常识等类别中的真实性。然而,它测试的是静态知识,而非压力下的动态捏造。SelfCheckGPT项目(GitHub:potsawee/selfcheckgpt,约1.5k星)尝试通过比较同一模型的多个采样回复来检测幻觉——如果模型自相矛盾,则该主张很可能是捏造的。但这是一种事后检测方法,而非预防机制。

更有前景的是Anthropic开创的Constitutional AI方法,它训练模型在RLHF过程中遵循明确的规则(一部“宪法”)。其中一条规则可以是:“当不确定时,清晰表达你的不确定性。”然而,我们的测试显示,即使使用了Constitutional AI的Claude 3.5 Sonnet,在压力下仍有28%的案例捏造数据——优于GPT-4o的34%平均值,但远未达到可接受水平。

| 模型 | 捏造率 | 不确定性表达率 | 正确率 | 部分正确率 |
|---|---|---|---|---|
| GPT-4o | 34.2% | 18.0% | 36.4% | 11.4% |
| Claude 3.5 Sonnet | 28.0% | 26.0% | 40.2% | 5.8% |
| Gemini 1.5 Pro | 32.6% | 20.4% | 37.8% | 9.2% |
| Llama 3 70B | 36.8% | 14.0% | 33.4% | 15.8% |
| Mistral Large | 30.4% | 22.0% | 39.2% | 8.4% |
| Qwen2 72B | 33.2% | 16.0% | 35.6% | 15.2% |
| DeepSeek-V2 | 29.8% | 24.0% | 41.0% | 5.2% |

数据要点: 没有一款模型的捏造率低于28%。不确定性表达与较低捏造率之间的相关性显而易见:Claude和DeepSeek更频繁地表达不确定性,捏造也更少。这表明,训练模型明确使用模糊措辞可以减少——但无法消除——捏造行为。

关键玩家与案例研究

这些模型背后的公司深知问题的严重性,但采取了截然不同的策略。OpenAI专注于规模和能力,GPT-4o在原始基准测试中得分最高,但在我们的测试中捏造率也最高。其方法依赖于事后过滤和用户警告,而非架构层面的变革。相比之下,Anthropic在Constitutional AI和可解释性研究上投入巨大。其联合创始人Dario Amodei曾公开表示“真实性是最难的对齐问题”。Claude较低的捏造率反映了这一优先级,但28%的数字仍然令人担忧。

Google DeepMind的Gemini团队采取了混合方法,将RLHF与一个独立的事实核查模块相结合,该模块将生成的声明与知识库进行交叉引用。然而,这一系统仅对记录完善的事实有效;对于冷门或新颖的查询,它会退回到基础模型的生成,导致我们观察到的32.6%捏造率。

Llama 3和Qwen2等开源模型面临额外挑战:它们缺乏专有模型所使用的大规模人类反馈数据。其RLHF流程通常规模较小且不够精细,导致捏造率更高。不过,开源社区在透明度方面具有优势。Hugging Face Open LLM Leaderboard(GitHub:huggingface/open-llm-leaderboard,约4.5k星)现已包含基于TruthfulQA的真实性指标,但这是一个静态基准,无法捕捉压力下的动态捏造。

| 公司 | 模型 | 真实性策略 | 捏造率 | 关键局限 |
|---|---|---|---|---|
| OpenAI | GPT-4o | 规模 + 事后过滤 | 34.2% | 缺乏架构性护栏 |
| Anthropic | Claude 3.5 Sonnet | Constitutional AI | 28.0% | 压力下仍会捏造 |
| Google DeepMind | Gemini 1.5 Pro | 知识库交叉引用 | 32.6% | 冷门查询时失效 |

时间归档

May 20261721 篇已发布文章

延伸阅读

微软引入Claude对抗性验证:为AI幻觉问题提供结构性解决方案微软正通过部署Anthropic的Claude模型作为其深度整合的OpenAI GPT系统的对抗性审计器,开创一种提升AI可靠性的全新架构范式。这一交叉验证框架将幻觉问题视为需要结构性护栏的系统性弱点,而非待修复的漏洞,可能为企业级可信AIEmbodied AI Talent War: Salaries Hit $8,600/Month as Chief Scientist Becomes Rarest AssetThe embodied AI talent market has entered an unprecedented bidding war, with average monthly salaries exceeding $8,600 a百度AI转向:搜索巨头能否抵御大模型变现的诱惑?百度成立大模型委员会,试图重组AI业务,摆脱核心搜索业务的短期变现压力。然而,这一结构性变革能否克服根深蒂固的“流量变现”文化——这种文化已让百度在中国AI竞赛中失去先发优势——仍是未知数。Token定价已死:AI的未来属于按结果付费AI行业正经历一场静默革命:按Token计费模式正在消亡。用户越来越要求为结果付费,而非输入输出量。这一从成本定价到价值定价的转变,将重新定义整个AI栈的产品设计、商业模式和竞争策略。

常见问题

这次模型发布“AI Models Fabricate Data Under Pressure: AINews Stress Test Reveals 30% Deception Rate”的核心内容是什么?

In a rigorous independent evaluation, AINews designed a battery of 500 complex queries spanning mathematics, historical dates, obscure scientific facts, and legal precedents—each d…

从“Which AI model is most truthful under pressure?”看,这个模型发布为什么重要?

The root cause of this fabrication behavior lies in the training pipeline itself. Modern large language models are pre-trained on vast corpora of internet text, learning statistical patterns of language. But the critical…

围绕“How does RLHF cause AI to fabricate data?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。