ChatGPT的'幸运数字'暴露AI随机性的幻觉

当被要求在1到10000之间选择一个数字时,ChatGPT并非随机选择——它倾向于特定区间。AINews发现该模型对7200-7500范围内的数字存在持续显著的偏好。这种模式并非程序漏洞,而是窥探大语言模型统计本质的重要窗口。

一项针对ChatGPT数字选择的常规测试揭示了具有重要意义的非随机模式。当要求AI在宽泛范围内选择数字时,该模型对7200-7500区间表现出明确且可重复的偏好。这种行为远非任意,而是模型架构的直接产物,源于训练过程中习得的统计概率。某些数字范围(可能与其训练语料中的人口数据、技术规格或数据集规模等常见参照相关)在模型中形成了潜在的锚点,导致其在生成响应时倾向于这些“高频区域”。这一发现对依赖AI生成随机结果的应用领域(如游戏、模拟系统、安全协议等)提出了重要警示。

技术分析

7200-7500的偏好是大语言模型(LLM)输出受其训练和分词方式支配的典型案例。本质上,ChatGPT并非将数字作为抽象实体理解,而是将其处理为词汇表中的子词单元(token)。该范围内的数字在其海量训练数据中可能形成了常见或可预测的token序列。例如,“7500 RPM”、“7200p分辨率”、“7500人口”等常见技术规格或数据引用,可能使特定顺序的“7”、“2”、“5”、“0”相关token获得了高概率权重。

当被要求“选择一个数字”时,模型会进行下一token预测,在其见过的所有类似短语塑造的概率空间中导航。7200-7500区间正是该概率分布中的局部峰值——一个在“数字”语境下合理,又足够具体以满足指令的“安全”输出,这是统计阻力最小的路径。这揭示了核心机制:模型并未调用随机数生成器,只是在持续计算下一个最可能的token。选择幻觉是模型为生成连贯类人文本而设计的副产品。

此外,该偏好因模型避免极端值的倾向而强化。极低值(1-100)或极高值(9900-10000)在日常语料中出现频率较低,使其成为较低概率的输出。7000左右的中高值区间,既保持了数值的实质性,又在多种语境中常见,从而巩固了其作为默认响应的地位。

行业影响

这一发现在多个日益将生成式AI集成到核心流程的领域引发涟漪。在游戏娱乐行业,若使用AI生成战利品、随机事件或程序化内容,这种固有偏好可能产生可预测模式,破坏沉浸感并催生漏洞利用。对于依赖随机种子或随机输入的研究、金融或物流仿真软件,使用LLM输出可能扭曲结果,导致模型缺陷和预测失准。

最关键的影响在于安全和密码学领域。虽然目前没有严肃协议会使用LLM生成密码学随机数,但这一发现对AI在相邻领域(如生成密码建议、初始值或安全挑战创意)的渗透应用发出了严厉警告。随机性幻觉构成了切实风险,同时也引发产品责任问题:若企业AI驱动的“随机”抽奖功能被证实存在偏见,责任应由谁承担?

对AI开发者和平台提供商而言,这催生了透明度建设的迫切需求。必须明确警告用户:AI生成的“选择”并非随机。这将迫使市场在提供真实随机性的系统和依赖概率性语言模型的系统之间做出区分。

延伸阅读

AI资本大迁徙:Anthropic崛起与OpenAI光环褪色硅谷的AI投资逻辑正在被彻底重写。当OpenAI曾独享绝对忠诚时,Anthropic正以空前估值吸引战略资本。这场变迁远非金融风向的简单转换——它是对人工智能未来竞争愿景的一次全民公投。Claude Mythos 预览:AI 的网络安全革命与自主智能体困境Anthropic 发布的 Claude Mythos 预览版,标志着 AI 在网络安全领域的角色发生根本性转变。它超越了简单分析,展现出能模拟复杂攻击链、协调多步防御协议的自主推理能力,将自己定位为战略伙伴而非工具。这一进步迫使业界重新审Claude Code 封禁事件揭示AI编程核心困境:安全与创作自由的对立Anthropic旗下AI编程助手Claude Code近期频发用户账户遭长时间封禁事件,这不仅是服务故障,更暴露了一个关键的‘安全悖论’:旨在建立信任的安全措施,反而通过干扰合法、创造性的编码任务,侵蚀了工具的核心价值。阿波罗计算机复兴运动揭露AI黑箱危机:透明计算的迫切回归一场修复1960年代阿波罗制导计算机的草根技术运动在全球引发共鸣,其意义远超技术怀旧——它是对现代人工智能不透明性的尖锐控诉。当AI系统日益强大却难以捉摸时,AGC手工编织的磁芯存储器与完全可追溯的逻辑,为安全关键领域构建可靠可信的系统提供

常见问题

这次模型发布“ChatGPT's 'Lucky Numbers' Expose the Illusion of AI Randomness”的核心内容是什么?

A routine test of ChatGPT's number selection has uncovered a non-random pattern with significant implications. The AI model demonstrates a clear and repeatable preference for numbe…

从“How does ChatGPT tokenization cause number bias?”看,这个模型发布为什么重要?

The 7200-7500 preference is a textbook case of how a Large Language Model's (LLM) output is dictated by its training and tokenization. At a fundamental level, ChatGPT does not comprehend numbers as abstract entities but…

围绕“Is AI random number generation safe for cryptography?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。