维基百科对AI亮红牌:禁止LLM生成内容,人类编辑仍是知识守门人

3月27日,全球最庞大的自由知识库——维基百科,正式向大语言模型(LLM)划出一道不可逾越的红线:禁止使用AI生成或重写条目内容。这不是一次温和提醒,而是一次立场鲜明的政策升级——从过去“不建议使用”的模糊地带,跃升为明确、可执行、带追责机制的严格禁令

为什么是现在?一场“幻觉”引发的信任危机

维基百科的底气,来自它近二十年如一日坚守的三大支柱:中立性、可验证性、人人可编辑。而LLM恰恰在这些环节频频“掉链子”:编造不存在的论文、虚构引文来源、将半真半假的推测包装成确定事实——也就是我们常说的“AI幻觉”。

政策文件一针见血地指出:由LLM生成的文本,天然与维基百科的核心内容政策相冲突。哪怕文字流畅、逻辑看似严密,只要缺乏可靠来源支撑、无法被第三方独立验证,就等于在知识地基上打下松动的桩。

禁令不止于“写新条目”,连“改旧文章”也被盯紧

很多人误以为,只要不拿AI从零写一篇《量子引力》的词条就没事。但新规远比这严格:
✅ 允许:用AI检查语法、调整句式、优化段落节奏;
❌ 严禁:
– 用AI扩写一段历史事件,哪怕只是“补充细节”;
– 用AI重写整节医学条目以“提升可读性”;
– 将AI生成的摘要、定义或时间线直接粘贴进正文。

简言之:AI可以当校对员,但不能当撰稿人;可以提建议,但不能做决定。

唯一例外?翻译——但必须戴上“维基手铐”

唯一被允许的深度AI介入场景是多语言翻译辅助,前提是严格遵循维基百科最新发布的《LLM辅助翻译指南》:译文必须逐句对照原文核验,所有术语需匹配对应语言版本的权威条目,且最终输出须由母语编辑签字确认。AI在这里不是翻译官,而是带锁的词典+草稿机。

处罚不看文风,只看事实——防误伤,更防钻空子

有人担心:“我写得简洁理性,会不会被当成AI?”维基百科早有预案:
🔹 风格≠证据:单凭句式工整、用词“过于完美”不能定性;
🔹 行为才说话:系统会调取编辑者近期修改记录,重点核查新增内容是否附带可靠来源、是否与已知学术共识冲突;
🔹 误判零容忍:若发现因算法偏见导致误封,社区将启动快速复核流程。

40:2的压倒性投票:这不是管理员的独断,而是社区的集体意志

这项政策并非某位高管拍板,而是经过维基百科资深编辑群体公开投票表决。结果触目惊心又理所当然:40票赞成,仅2票反对。一位参与投票的医学类条目维护者直言:“上周我刚回退了三处AI生成的‘临床试验数据’——全查无此研究。这不是效率问题,是知识存亡问题。”

结语:当404页面不再指向失效链接,而是AI的权限边界

在AI写作工具席卷新闻、教育、出版的今天,维基百科的选择显得近乎“反潮流”。但它守住的从来不是技术本身,而是知识生产的底层契约:每一条陈述,都必须有人能指着来源说‘就在这里’;每一个改动,都必须经得起陌生人带着质疑点开参考文献链接。

机器人没有署名权,也没有责任能力。而维基百科最珍贵的资产,始终是那个深夜核对古籍影印本的退休教授,是反复比对五种语言版本后修正一个单位符号的工程师,是为了一句“该国宪法第X条是否包含XX条款”在国会档案馆泡三天的大学生。

这场“知识净土保卫战”,没有炫目的API接口,只有无数双眼睛、一次次点击、一页页脚注——和一份从未妥协的信念:真实,不该有捷径。

作加

类似文章