右翼势力围攻维基百科
埃隆·马斯克推出了AI生成的百科全书“Grokipedia”,旨在消除他所认为的维基百科的“宣传偏见”。然而,这一替代品存在大量抄袭和信息失实,且缺乏人工编辑与纠错机制。与此同时,共和党政客也指责维基百科存在意识形态偏见,试图推动改革。这场围绕信息权威的斗争,讽刺地揭示出:在攻击维基百科开放、透明的社区共识模式时,批评者们自己却在构建一个更加不透明、更不负责任的系统,这凸显了在AI时代,信息控制与信任面临的复杂挑战。
AI百科的登场与争议
埃隆·马斯克推出了 Grokipedia,一个由其AI模型 Grok 生成的百科全-书。他声称此举是为了“清除”他认为困扰维基百科的“宣传”。然而,这个新平台暴露出一些根本性问题:
- 内容问题: 部分文章几乎是维基百科的复制品,而另一些则经过了可疑的删减。例如,关于美国某政府机构的文章,完全没有提及马斯克本人曾吹嘘自己在该机构解体中扮演的角色。
- 缺乏人工监督: Grokipedia 完全由AI生成,没有人类编辑,用户除了一个建议箱外,无法有效请求更正或改进。
- 混淆概念: 它将大规模信息检索等同于知识,将自动化等同于中立。
这场行动的背后,是一场更广泛的运动,旨在 诋毁维基百科,并重新定义在AI时代什么才是可靠的信息来源。
控制维基百科认为可靠的东西,你就能控制机器——進而控制人们——如何学习和了解这个世界。
“操纵裁判”:一种政治策略
政客们,尤其是保守派,长期以来一直对社交媒体公司使用一种被称为 “操纵裁判” (working the referees) 的策略。他们大声指责平台存在偏见,以迫使平台自我怀疑并改变规则。
一个典型的例子是2016年Facebook的“热门话题”事件:
- 指控: 有匿名爆料称,Facebook的编辑在秘密“拉黑”右翼话题,同时人为“注入”主流新闻。
- Facebook的回应: 公司调查后解释,编辑们是在移除点击诱饵、谣言或来源不足的故事。
- 最终结果: 为了避免偏见的嫌疑并安抚批评者,Facebook 解雇了人类编辑团队,将该功能完全算法化。结果,这个功能很快就开始放大阴谋论和不可信的信源。
这一策略的成功,使得共和党政客开始在几乎没有任何证据的情况下,普遍指责各大社交媒体平台存在反保守派的偏见。
维基百科的运作原则
维基百科的运作基于一个激进的前提:人们可以通过可靠的来源和有条理的商议,共同确定什么是真实的。其核心精神包括:
- 透明度: 当一篇文章的中立性存在争议时,页面顶部通常会有明确标记。如果条目缺乏来源,也会告知读者。
- 社区共识: 编辑争议首先通过公开讨论解决,如果无法解决,则会进入一系列社区审议机制,最严重的指控会交由仲裁委员会处理。
- 来源可靠性: 维基百科有详细的可靠来源指南,并强调 “背景至关重要”。例如,某些网站可能适合引用其观点,但作为事实来源则通常不可靠。
- 善意推定: 这是维基百科的指导原则之一,但其批评者们显然没有遵守。
我们显然不会把那些胡言乱语的随机网站与《新英格兰医学杂志》同等对待,这没有问题。
对维基百科的围攻
马斯克等人将维基百科称为 “Wokipedia”(觉醒百科),而其联合创始人拉里·桑格(Larry Sanger)也成为了一名 outspoken 的批评者。
- 桑格的批评: 他认为维基百科采纳了一种“GASP”世界观——即全球主义、学术、世俗、进步。他提议取消匿名仲裁员制度,并允许就同一主题创建观点对立的平行文章(例如,“支持生命”和“支持选择”的堕胎条目)。
- 政界的施压: 共和党议员詹姆斯·科默、南希·梅斯和参议员特德·克鲁兹等人,纷纷致信维基媒体基金会,要求其回答有关 意识形态偏见、来源列表以及编辑封禁政策的问题。
克鲁兹的信件揭示了这场运动的紧迫性:维基百科的影响力在AI时代进一步扩大,因为 几乎所有大型语言模型都使用其平台进行训练。
替代品的致命缺陷
马斯克的 Grokipedia 试图取代维基百科的地位,但它的设计恰恰暴露了其最大的弱点。
- 缺乏人类共识: 维基百科的权威来自于人类社区的共识,而 Grokipedia 完全放弃了这一点。它只是纯粹的算法输出,没有社区,没有透明度,也没有明确的争议解决流程。
- 无法纠错: 文章作者本人发现,Grokipedia 中关于他的条目包含了阴谋论者散布的虚假信息,并且通过“建议编辑”工具报告后,问题并未得到解决。
- 讽刺的现实: 马斯克在攻击维基百科存在偏见的同时,他自己正在构建一个 远比维基百科更不透明、更不负责任的系统。就连他自己的X平台上的“社区笔记”功能,也承认了人类共识在建立信任中的价值。