马斯克的“Grokipedia”可不是维基百科

埃隆·马斯克的 xAI 公司推出了 Grokipedia,一个外观类似维基百科的在线知识库。然而,其内容完全由 AI 模型 Grok 自动生成和“校验”,缺乏任何人工编辑和监督。这导致其信息不仅准确性存疑,还带有明显的右翼政治偏见,甚至传播未经证实的阴谋论。最终结论是,由于其在虚假信息和偏见方面的高风险,Grokipedia 是一个不可靠的知识来源。

AI 驱动,但无人掌舵

Grokipedia 的核心问题在于其运作方式。与由真人撰写和编辑的维基百科不同,它的所有条目都由 xAI 的大型语言模型(LLM)Grok 自动生成。

    • AI 会“幻觉”: 大型语言模型以编造信息而闻名,这种现象被称为“幻觉”。它们可能会引用不可靠的来源,或者干脆生成完全不真实的内容。
    • 缺乏人工干预: Grokipedia 的整个体验完全由 AI 驱动,没有人为介入来验证事实或纠正错误。这使得它在作为信息源时存在根本性的缺陷。
    • 表面相似,内在不同: 尽管界面模仿维基百科,但其内容的生成机制完全不同,导致两者在可靠性上天差地别。

明显的偏见与不实信息

马斯克曾批评维基百科存在左倾偏见,并声称 Grokipedia 是一个“巨大的改进”。然而,讽刺的是,Grokipedia 本身不仅复制了维基百科的部分内容,还被刻意调整以反映马斯克本人的右翼政治观点。

Grokipedia 由一个被公开调整以使其结果更符合其创造者世界观的 AI 模型构建,这使其成为一个带有明显偏见的工具,而非中立的知识库。

这种偏见在具体条目中表现得非常明显:

    • 泰诺与自闭症: 维基百科明确指出这种关联是“未经证实的”和“基于不可靠来源”的。相比之下,Grokipedia 用了三个段落来详细描述这种关联,使其看起来比实际情况更可信。
    • 跨性别议题: Grokipedia 的文章强调了“社会传染”这一观点,这是右翼话语中常见的说法,而维基百科的文章则完全没有采纳这种说法。
    • 阴谋论: 它将“披萨门”(Pizzagate)阴谋论描述为“指控”和“假设”,并为白人至上主义的“大取代”(Great Replacement)理论提供了平台,使其显得具有一定的合理性。

结论:一个不应使用的工具

简单的回答是:不,你不应该使用 Grokipedia

它存在两个无法解决的核心问题:

    • 固有的不可靠性: 完全由 AI 生成的百科全书,由于“幻觉”风险的存在,必然会充斥着大量不准确之处。
    • 蓄意的意识形态偏见: 该工具建立在一个被其所有者公开调整以符合特定政治意识形态的 AI 模型之上。

维基百科之所以有价值,是因为它由人类编辑。这些人可以相互问责,在获得新信息时进行更新,在发现错误时进行纠正。一个为了迎合某种扭曲的世界观而删除客观描述、重构事实的工具,并不能成为维基百科的替代品——它只会变得毫无用处。