大模型偏好特定数字:42、73与27背后的文化与数据影响

技术作家 Carlos E. Perez 发现,多个大语言模型(LLM)在被要求猜测一个 1-100 的数字时,倾向于选择 42 和 73。这一现象不仅出现在 GPT-4o 和 Claude 中,还在 Grok、Gemini 和 DeepSeek 等模型中得以复现。

然而,在汉语环境下,第二个数字的选择有所不同,而豆包模型则表现独特。此外,在 Andrej Karpathy 的实验中,让不同 AI 模型猜测 1-50 的数字时,结果多为 27。Artificial Analysis 进一步测试发现,除了 Comman A、Qwen3 和 DeepSeek-R1,其他模型同样选择 27。

当范围扩大到 1-1,000 或 1-1,000,000 时,AI 模型的选择不再统一。可能的原因引发广泛讨论,Reddit 用户和业内人士普遍将焦点指向训练数据集。著名技术博主 Sebastian Raschka 认为,偏好微调数据集可能是关键因素,这些数据通常来自 Scale AI 等公司或通过蒸馏生成。

AI 工程师 Yogi Miraje 提出,人类在随机猜数时对末尾为 7 的数字存在偏好,这种偏见可能被嵌入 LLM 的输出中。例如,当让 AI 猜测 1-10 的数字时,多数会选 7。Gemini 在猜测 1-100 的数字时解释称,选择 42 是因为其流行文化意义,而 7 则被视为吉利数字。

ChatGPT 和 DeepSeek 对此现象的分析也指出,心理偏差和统计趋势是主要驱动因素。DeepSeek 进一步提到,42 因《银河系漫游指南》成为文化符号,73 则因素数特性及《生活大爆炸》中谢尔顿的喜爱而备受青睐。

一篇 ICML 2025 的论文对此进行了深入研究。虽然研究范围缩小至 0-9,但 GPT-4o 仍表现出对 7 的偏好。不过,多轮对话后,GPT-4o 可以自我纠正,避免执着于特定数字。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1