维基百科正式禁止使用AI生成或重写条目
3月26日,维基百科社区通过投票正式确立新编辑政策,明确禁止用户直接使用大语言模型(LLM)生成或改写百科条目内容。这一决定以40票赞成、2票反对的压倒性结果通过,反映出数千名活跃志愿者对AI可能污染知识库的深切忧虑。
此前,维基百科对AI工具的使用仅模糊建议“不应从头生成新文章”,如今则升级为硬性禁令:“严禁使用AI生成或重写内容”。这意味着,无论你用ChatGPT、Claude还是其他工具起草一段文字,只要最终提交的内容是AI生成的,哪怕只改了几个词,都违反社区规范。
这不是简单地“不让用AI”,而是划清了一条清晰的界线:AI可以作为参考工具——比如帮你查语法、整理零散资料、建议更清晰的表达方式——但所有新增的事实、观点、结构和表述,必须由人类编辑亲自核实、引用可靠来源,并亲手敲下每一个字。
“我们不是反对技术,而是反对未经验证的‘知识’。”一位参与投票的资深编辑在论坛中写道,“AI会编造引文、混淆事实、把传闻写成定论。我们不是在写小说,我们是在为全世界保存可验证的真相。”
这一变化背后,是过去一年里大量AI生成内容潜入维基百科的教训。2023年,多名编辑发现条目中出现了“虚构的学术论文”“不存在的政府报告”“错误的出生日期”,这些错误都源于有人直接复制AI输出。更令人担忧的是,部分AI生成内容语法流畅、结构完整,普通用户根本看不出破绽。
维基百科并非唯一面临AI冲击的平台。Google、YouTube、Reddit等都在制定AI内容标注规范,但维基百科的独特之处在于:它不靠算法推荐,不靠流量变现,它的权威性完全建立在数十年来全球志愿者手工校对、逐条引用、反复修订的积累之上。一旦这条底线被突破,公众对它的信任将动摇。
目前,维基百科仍允许使用AI辅助编辑,但前提是:必须人工逐字核对、确认每一条信息都有权威来源支撑。例如,你可以让AI帮你整理一段话的逻辑,但不能让它“补充”一段历史事件的背景;你可以让它检查拼写,但不能让它“优化”一段关于气候变化的描述——因为那可能悄悄替换了科学共识。
这一政策的出台,也被外界视为一场“知识主权”的宣言。在全球信息环境日益被算法主导的今天,维基百科选择站在了人类判断的一边。它没有拥抱效率,而是选择了更慢、更累、但更可靠的方式——因为它的使命,从来不是“写得快”,而是“写得对”。
