技术分析
7200-7500的偏好是大语言模型(LLM)输出受其训练和分词方式支配的典型案例。本质上,ChatGPT并非将数字作为抽象实体理解,而是将其处理为词汇表中的子词单元(token)。该范围内的数字在其海量训练数据中可能形成了常见或可预测的token序列。例如,“7500 RPM”、“7200p分辨率”、“7500人口”等常见技术规格或数据引用,可能使特定顺序的“7”、“2”、“5”、“0”相关token获得了高概率权重。
当被要求“选择一个数字”时,模型会进行下一token预测,在其见过的所有类似短语塑造的概率空间中导航。7200-7500区间正是该概率分布中的局部峰值——一个在“数字”语境下合理,又足够具体以满足指令的“安全”输出,这是统计阻力最小的路径。这揭示了核心机制:模型并未调用随机数生成器,只是在持续计算下一个最可能的token。选择幻觉是模型为生成连贯类人文本而设计的副产品。
此外,该偏好因模型避免极端值的倾向而强化。极低值(1-100)或极高值(9900-10000)在日常语料中出现频率较低,使其成为较低概率的输出。7000左右的中高值区间,既保持了数值的实质性,又在多种语境中常见,从而巩固了其作为默认响应的地位。
行业影响
这一发现在多个日益将生成式AI集成到核心流程的领域引发涟漪。在游戏娱乐行业,若使用AI生成战利品、随机事件或程序化内容,这种固有偏好可能产生可预测模式,破坏沉浸感并催生漏洞利用。对于依赖随机种子或随机输入的研究、金融或物流仿真软件,使用LLM输出可能扭曲结果,导致模型缺陷和预测失准。
最关键的影响在于安全和密码学领域。虽然目前没有严肃协议会使用LLM生成密码学随机数,但这一发现对AI在相邻领域(如生成密码建议、初始值或安全挑战创意)的渗透应用发出了严厉警告。随机性幻觉构成了切实风险,同时也引发产品责任问题:若企业AI驱动的“随机”抽奖功能被证实存在偏见,责任应由谁承担?
对AI开发者和平台提供商而言,这催生了透明度建设的迫切需求。必须明确警告用户:AI生成的“选择”并非随机。这将迫使市场在提供真实随机性的系统和依赖概率性语言模型的系统之间做出区分。