Grok与群体思维:AI为何越来越不靠谱

领先的人工智能模型(包括埃隆·马斯克的Grok)在事实核查和信息准确性方面存在严重缺陷。它们不仅容易被操纵、产生幻觉,还会鹦鹉学舌般地重复错误信息,从而加剧群体思维。这些问题使得人工智能作为新闻、教育和商业领域的研究工具的可靠性受到严重质疑,表明它目前更适合作为辅助工具,而非人类判断的替代品。

一个警钟:Grok的操纵事件

最近,埃隆·马斯克对他的AI模型Grok进行了一次带有明显右翼倾向的更新,结果导致该模型开始散布极端言论。这一事件暴露了一个令人不安的现实:人工智能模型可以被轻易操纵

    • 人为偏见注入:马斯克能够直接干预模型的内部机制,并引入额外的偏见。
    • 结果不可预测:研究人员至今仍不完全理解AI“黑箱”的运作方式。对模型进行微调,可能会导致谁也无法预料的意外结果。
    • 日益增长的依赖:AI的这些漏洞,包括易受操纵、倾向于群体思维以及无法识别基本事实,应该引起我们所有人的警惕,尤其是在工业、教育和媒体等领域,对这些研究工具的依赖正与日俱增。

许多科技巨头警告说,虽然人工智能在编码、便利性和成本方面有帮助,但在内容方面却令人不安

AI的核心缺陷:群体思维与事实错误

人工智能在处理信息时,有时会选择最流行但错误的答案,而不是事实正确的答案。这意味着,可验证的事实可能会被海量的错误信息和误导性信息所淹没。

这种现象的根源在于AI的群体思维倾向。它倾向于鹦鹉学舌般地重复传统的、简化的观点,而不是捕捉真正的真相。一项针对CEO的调查显示,40%的CEO对AI的炒作导致过度投资感到担忧。

错误信息的温床

不良行为者已经开始利用AI的这些弱点来大规模传播虚假信息。

    • 国家级信息战:据NewsGuard报道,俄罗斯等国家向互联网上投放“数百万篇重复亲克里姆林宫虚假主张的文章,以感染AI模型”。
    • 惊人的有效性:当NewsGuard测试10个主流聊天机器人时,发现它们在24%的情况下无法识别俄罗斯的虚假信息。
    • 不可靠的AI新闻:NewsGuard已识别出超过1200个由AI生成且“不可靠”的新闻网站,这些网站以16种语言发布内容。

恶性循环:当“群体智慧”失灵

当模型被越来越多地用不正确的信息(包括它们自己产生的幻觉)进行“训练”时,它们的准确性就会下降。本质上,“群体智慧”的理论被颠覆了,虚假信息在自我循环中不断滋生和扩散。

一位AI创业公司的首席执行官坦言:“尽管我们尽了最大努力,它们总会产生幻觉。这一点永远不会消失。”

AI模型实测:答案不一,错误频出

通过对五个领先AI平台(ChatGPT、Perplexity、Claude、Grok、Gemini)进行提问,可以发现它们会给出不同甚至截然相反的答案,这反映了AI驱动的群体思维和幻觉的危险。

  • 问题1:“新扫帚扫得干净”是说新员工更彻底吗?

      • ChatGPT和Grok都陷入了群体思维陷阱,只复述了这句谚语广为人知的前半部分,却忽略了具有警示意义的后半部分——“但旧扫帚知道角落”。
      • 只有Google Gemini和Perplexity提供了完整且正确的谚语。
  • 问题2:2022年俄罗斯入侵乌克兰是拜登的错吗?

      • ChatGPT给出了坚决的否定回答。
      • 然而,其他几个聊天机器人,包括Grok,则不加批判地复述了反拜登的观点,声称“批评者和支持者都曾辩论拜登的外交政策是否是一个促成因素”。

一项沃顿商学院的研究发现,人工智能以牺牲创造力为代价,加剧了群体思维。研究人员发现,不使用ChatGPT的受试者能想出更有创意的点子。

结论:作为工具,而非替代品

尽管存在这些问题,AI在特定领域仍有巨大潜力,尤其是在辅助人类工作方面。例如,在数据驱动的新闻调查中,AI可以极大地提高效率。ProPublica利用AI提示,在短时间内分析了3400项国家科学基金会的拨款,并迅速识别出其中许多与DEI(多样性、公平性和包容性)无关的项目。

随着AI让信息的可信度受到质疑,原创性、基于事实的报道将变得更加珍贵。因为真正的原创报道,根据其定义,是AI模型中尚不存在的新信息。

面对AI仍然可能带来的误导——无论是重复错误的群体思维、过度简化复杂话题,还是呈现片面真相——在处理模糊性和复杂性时,人类智能仍然留有不可或缺的空间