Grokipedia 内容悄然流入 ChatGPT,AI 世界的“信息回流”引发警觉
由埃隆·马斯克旗下 xAI 团队推出的 Grokipedia,原本是想为公众提供一个“更中立”的百科替代品,直指维基百科“左倾偏见”。但上线一年多,它却成了互联网上最具争议的数字实验之一——不是因为它颠覆了知识体系,而是因为它像一面扭曲的镜子,把维基百科的内容重新包装,再掺进大量未经核实、甚至已被辟谣的极端观点。
如今,这个本应孤立存在的平台,正悄悄渗透进主流AI系统。根据《卫报》近期的调查,OpenAI 最新版本的 GPT-5.2 在回答用户关于“加拿大原住民寄宿学校历史”“跨性别青少年医疗政策”“2020年美国大选投票率”等话题时,至少九次直接引用了 Grokipedia 的条目。更令人不安的是,这些内容并非偶然出现——它们出现在用户问得最细、最冷门的问题里,比如“波兰如何处理LGBTQ+教育法案”或“德国2017年能源转型的反对声音”,而这些问题恰恰是主流媒体和学术机构较少覆盖的领域。
OpenAI 并非毫无防备。事实上,他们的系统在面对“新冠死亡数据”“俄乌战争伤亡统计”“气候变化科学共识”这类高风险话题时,会主动过滤 Grokipedia 的内容。但正是这种“选择性采纳”,暴露了AI模型的深层困境:当海量公开内容被喂进训练池,平台无法分辨“谁在说真话”,只能依赖“谁被引用得多”。而 Grokipedia 正是靠社交媒体推手、极右翼博客和YouTube频道的反复转发,让错误信息在互联网上“刷出了存在感”。
事实核查组织“Snopes”和“PolitiFact”早已多次指出,Grokipedia 多条关键条目存在严重失实。例如,它声称“美国CDC在2021年承认mRNA疫苗导致大量心肌炎死亡”,而CDC官方从未发布过此类声明;又如它将“跨性别者手术率”夸大十倍,并引用所谓“匿名医学报告”——这些内容在维基百科上早被标注为“需引用来源”或“争议性陈述”。
更可怕的是,这种“信息逃逸”正在形成闭环。Grokipedia 的内容被AI抓取 → AI输出给用户 → 用户转发到社交媒体 → 社交媒体再推高Grokipedia的流量 → 更多AI模型抓取它。这不是技术故障,而是一场无声的“认知污染”。就像病毒在人群中传播,错误信息一旦被算法赋予“权威感”,就很难被清除。
目前,OpenAI 表示正在“加强语料来源的可信度权重”,但并未透露具体方案。而xAI方面则拒绝回应,仅称“Grokipedia 是开放平台,欢迎批评与补充”。可问题是,当AI开始把一个被多个独立机构标记为“误导性”的网站,当作知识来源时,我们还能相信任何AI给出的答案吗?
这不是关于“谁对谁错”的争论,而是关于:在信息爆炸的时代,我们是否正在把真相的定义,交给了最喧闹、最极端的声音?