最新消息:关注人工智能 AI赋能新媒体运营

维基百科禁止LLM生成内容,违规将受罚

科技资讯 admin 浏览

维基百科正式封杀AI生成内容:一场关于真相的投票

2024年3月27日,维基百科——这个全球最权威、最依赖人类智慧的知识库——做出了一项震动互联网的决定:全面禁止使用大语言模型(LLM)生成或重写条目内容。这不是一次温和的提醒,而是一道明确、强硬的禁令。从“不建议使用”到“严禁使用”,维基百科终于在AI浪潮中划出了底线。

这项政策的出台,并非临时起意,而是经过数月讨论、多轮社区辩论后,由志愿者编辑群体民主投票通过的结果。最终票数为40票赞成、2票反对。如此压倒性的支持,在以自由开放著称的维基社区中极为罕见——这说明,绝大多数编辑已经意识到:AI正在悄悄侵蚀他们用十几年时间建立起来的信任基石。

为什么禁用AI?不是怕技术,是怕假消息

维基百科的核心原则是“可验证性”和“中立性”。每一条信息,都必须有可靠来源支撑。而大语言模型的问题恰恰在于:它们不“知道”事实,它们只是“猜”出最可能的组合。

2023年,一名用户用AI生成了一条关于“哥伦比亚大学教授被指控学术造假”的虚假条目,内容详尽、语言流畅,甚至引用了伪造的论文链接。这条假信息在被人工发现前,曾被数十人浏览,其中还包括几位研究人员。类似事件在多个语言版本的维基百科中反复上演——AI生成的“伪事实”越来越逼真,越来越难分辨。

更令人担忧的是“幻觉”(hallucination)问题。AI会编造不存在的事件、虚构人物、伪造数据。它不会说“我不知道”,它只会“说得像真的一样”。而维基百科的编辑们,每天都在与这些伪装成知识的谎言作战。

“我们不是反对技术,”一位活跃编辑在讨论页写道,“我们反对的是把机器的猜测,当成人类的共识。”

不是全盘否定,而是划清界限

禁令并非一刀切。维基百科允许AI在极有限的范围内作为“辅助工具”:

  • 可以请AI检查语法、润色语句,但必须人工逐字核对,确保没有引入新信息;
  • 可以借助AI翻译外文条目,但必须对照原文逐句校对,严禁依赖AI译文直接发布;
  • 可以使用AI工具查找相关文献线索,但所有引用来源必须由编辑亲自验证。

关键原则只有一个:**任何AI生成的内容,都不能成为条目的一部分**。哪怕它看起来“很对”,哪怕它“写得比我还好”。

维基百科官方特别强调:“语言风格相似,不等于内容虚假。”许多资深编辑文风简洁、逻辑严密,与AI输出高度接近。因此,处罚不会仅凭“像不像AI”来判断,而是必须结合编辑历史、修改动机和内容是否违反核心政策(如无来源、偏见、原创研究)来综合评估。

全球编辑的共识:我们不靠机器,靠的是人

维基百科没有雇佣专业编辑团队。它的内容,由全球超过250万注册志愿者共同维护。这些人来自不同国家、不同职业、不同背景——有退休教师、医学院学生、程序员、记者、甚至监狱里的囚犯。

他们不拿一分钱,却坚持每天核查每一个数据、每一个引用、每一个日期。他们为一条关于“1987年某次地震的震级”争论三天,只为找到一份当年的地质报告存档。

“我们不是在维护一个网站,”一位来自德国的编辑说,“我们是在维护一种信仰:人类可以通过协作,接近真相。”

当ChatGPT能写出一篇像模像样的“拿破仑传记”时,维基百科的编辑们却在翻阅19世纪的法文信件,只为确认拿破仑在滑铁卢战役前夜是否真的吃过晚餐。

AI时代,维基百科的选择,是给世界一个答案

在这个“人人都能生成内容”的时代,维基百科没有选择拥抱流量、追求效率,而是选择了坚守——哪怕这意味着编辑工作变得更慢、更累、更孤独。

它没有被AI的“快”诱惑,因为它知道:**快,不等于对**。

今天,当搜索引擎用AI摘要取代链接,当社交媒体用算法推荐替代思考,维基百科却在说:“请回来看看原始资料,去查证,去质疑,去确认。”

这或许才是它真正的价值——不是“知识最多”,而是“最值得信赖”。

40比2,不是一场技术投票,而是一次人性的宣言。

在AI泛滥的今天,维基百科没有选择投降。它选择,继续由人,来守护真相。