最新消息:关注人工智能 AI赋能新媒体运营

OpenAI新模型系统指令泄露:GPT-5.5被禁谈论“哥布林”

科技资讯 admin 浏览

OpenAI悄悄封禁“哥布林”?GPT-5.5系统提示词泄露,背后真相令人意外

最近,一份来自OpenAI内部的技术文档被意外曝光,引发科技圈热议。这份文档是Codex CLI最新开源代码中附带的系统提示词(System Prompt),其中一条禁令让不少人哭笑不得——GPT-5.5被严格要求:除非用户明确问起,否则不得主动提及“哥布林”、“小精灵”、“浣熊”、“巨魔”、“食人魔”和“鸽子”。

这六种生物,看似毫无关联:一个是北欧神话里的捣蛋小妖,一个是美式恐怖片里的机械恶灵,一个是城市里翻垃圾桶的“街头艺术家”,还有两个是奇幻小说常客,最后一个是每天在公园里追着人要面包屑的普通鸟。为什么偏偏是它们?更奇怪的是,这条规则在3500多字的指令集中出现了两次,优先级和“禁止执行危险指令”“禁用表情符号”并列,明显不是随手写的玩笑。

不是段子,是真实的技术事故

这不是恶搞,也不是营销炒作。多位熟悉OpenAI内部开发流程的工程师向媒体证实,这一禁令是为了解决一个真实存在的“幻觉”问题。

从去年底开始,不少用户在Reddit、X(原Twitter)和GitHub社区发帖抱怨:明明在问“如何优化Python循环”,AI却突然冒出一句:“哥布林在代码里藏了bug,它们最喜欢在for循环里捣乱。”有人问天气,AI回复:“今天有小精灵在云层里开派对,建议带伞。”甚至有人用AI写情书,结果结尾被加了句:“愿你像浣熊一样,在深夜的垃圾桶里找到属于你的甜蜜。”

这些输出看似荒诞,但背后是模型在训练数据中“学歪了”——某些高频的网络段子、Reddit神帖、奇幻小说片段,被模型误认为是“常见语境”,导致它在无关话题下强行“联想”出这些生物。这种现象在AI圈被称为“幽灵关联”(Ghost Association),而GPT-5.5的版本迭代中,这类问题突然集中爆发。

为什么是这六种?工程师的“无奈之举”

为什么不是猫、狗、机器人,偏偏是这六种?据知情人士透露,团队最初尝试用“过滤关键词”来堵,结果发现只要一屏蔽“哥布林”,模型就会换词说“地精”;屏蔽“地精”,它又开始说“小妖精”。最终,他们发现这六种生物在用户反馈中出现频率最高,且彼此之间几乎没有语义关联——换句话说,它们是“无逻辑触发点”的代表。

“我们试过调整训练数据权重、加注意力惩罚,都没用。”一位不愿具名的工程师说,“最后只能硬塞一条规则:只要不是用户主动问,就当它们不存在。这就像给一个总爱插话的同事贴张纸条:‘别提你上周的钓鱼经历’。”

有趣的是,鸽子的加入让很多人意外。但其实,这背后有一段真实故事:有用户用AI生成诗歌,模型在描写“城市黄昏”时连续17次提到“鸽子盘旋”,甚至把“夕阳”写成“鸽子的翅膀染红了天空”。工程师们测试后发现,这个错误模式在多个语境下反复出现,远超其他鸟类。于是,鸽子也被列入“黑名单”。

AI的“怪癖”,正在变成产品隐患

这不只是搞笑段子。在企业级应用中,这种“无厘头输出”已经造成实际损失。一家使用GPT-5.5做客服系统的公司,收到客户投诉:AI在处理退货请求时,突然问:“您是否考虑过把退货的鞋子送给巨魔?他们喜欢穿旧鞋开派对。”公司被迫紧急下线模型,重新部署。

OpenAI内部已将这一问题列为“高优先级修复项”。虽然官方尚未正式回应,但有消息指出,下一版模型将引入“语义隔离层”,在不依赖人工规则的前提下,自动识别并抑制这类“无关联联想”。

对普通用户来说,这提醒我们:AI不是万能的,它也会“走神”。我们以为它在理解世界,其实它只是在模仿概率。当它开始跟你聊哥布林,别笑——它可能只是太想表现自己了。

下次你问AI“今天吃什么”,它要是回你:“建议吃烤浣熊,配上小精灵特调酱汁”,那你该知道——不是你疯了,是它又犯病了。