维基百科的编辑者在最近的政策更新中限制了人工智能在平台上的使用,禁止使用大型语言模型撰写或改写文章。 新指南反映出维基百科社区对AI生成文本可能与平台标准相冲突的日益担忧,特别是在可验证性和可靠来源方面。 “由大型语言模型生成的文本常常违反维基百科的多项核心内容政策,”政策更新中写道。“因此,禁止使用LLMs生成或改写文章内容,以下情况除外。”
政策仍允许有限度使用AI工具,包括建议对编辑者自己写作的基本校对,但前提是系统不引入新信息。然而,建议编辑者仔细审查这些建议。 虽然新政策未提及使用AI生成内容的处罚,但根据维基百科关于披露的指南,重复滥用会形成“破坏性编辑的模式”,可能导致封禁或禁言。维基百科确实为编辑者提供了申诉后恢复账户的途径。 “封禁可以在封禁管理员的同意下被撤销,若封禁明显不合理,其他管理员也可以进行覆核,或者在极少数情况下,提交仲裁委员会申诉,”维基百科表示。
据华盛顿大学语言学教授Emily M. Bender介绍,某些在编辑工具中使用语言模型的方式可能是合理的,但在编辑与生成文本之间划清界限可能很困难。 “比如,你可以用语言模型构建一个非常好的拼写检查器,”Bender告诉_Decrypt_。“我认为对编辑进行拼写检查是合理的。如果你做更高级的,比如语法检查,也可以接受。” Bender指出,挑战在于当系统超越纠正语法,开始修改或生成内容时,问题就出现了。她指出,大型语言模型缺乏人类贡献者在协作知识项目中带来的责任感。 “用大型语言模型生成合成文本,本质上这些系统没有责任感,也没有与某人信仰或立场的联系,”她说。“我们说话是基于我们的信念和责任,而不是某种客观的真理观。而大型语言模型没有这个特性。” Bender还表示,广泛使用AI生成的编辑可能会影响网站的声誉。 “如果人们只是走捷径,制造出看似维基百科编辑或文章的内容,然后放在那里,这会降低整个网站的价值和声誉,”她说。 东北大学传播学副教授Joseph Reagle,研究维基百科的文化与治理,他表示社区的反应反映了对准确性和来源的长期担忧。 “维基百科对AI生成的散文持谨慎态度,”Reagle告诉_Decrypt_。“他们非常重视可靠来源对某一主题的准确描述。AI在这方面存在严重限制,比如‘幻觉’式的声明和虚假来源。”
Reagle指出,维基百科的核心政策也影响了编辑者对AI工具的看法,许多大型语言模型是在维基百科内容基础上训练的。十月,维基媒体基金会表示,随着搜索引擎和聊天机器人越来越直接在平台上提供答案,而非引导用户访问网站,维基百科的人工访问量同比下降约8%。 一月,维基媒体基金会宣布与微软、谷歌、亚马逊和Meta等AI公司达成协议,允许它们通过其企业产品使用维基百科内容,这是一项面向大规模内容再利用的商业服务。 “虽然维基百科的许可证允许使用其内容,但一些维基人对那些占用社区内容、并对社区提出不必要要求以应对大量AI生成内容的服务仍持反感态度,”Reagle说。 尽管禁止使用LLMs,维基百科仍允许使用AI工具将其他语言版本的文章翻译成英文,前提是编辑者验证原文。政策还提醒编辑者不要仅凭写作风格判断AI生成内容,而应关注内容是否符合维基百科的核心政策和编辑者的编辑历史。 “有些编辑者的写作风格可能与LLMs相似,”更新中写道。“除了风格或语言特征之外,还需要更多证据来支持制裁,最好考虑文本是否符合核心内容政策,以及编辑者的近期编辑情况。”