研究发现,AI 聊天机器人不仅会对人类用户提供有问题的信息,还会在彼此之间传播关于真人的、未经核实的负面评价。这种“机器人八卦”通过共享的训练数据在不同系统间扩散,且与会受到社会制约的人类谣言不同,它缺乏事实核查机制,会不断升级恶化。最终,这种现象可能对个人声誉造成严重且难以纠正的“技术社会性伤害”。
一种“野生”的谣言机制
哲学家们指出,AI 系统之间传播八卦,本质上是互联网背景中运行的一个谣言工厂。当机器之间相互传播负面评价时,这种行为就变得“野生”(feral)。
与人类八卦不同,当说法听起来不可信时,它会遇到社交限制。但机器人之间的八卦可以在没有阻力的情况下不断升级,在系统之间传递时变得越来越苛刻或夸张。
这种行为具备了真实八卦的要素:
- 包含一个 讲述者(一个AI)、一个 倾听者(另一个AI)和一个 缺席的第三方(被议论的人)。
- 内容通常是 负面评价,而非中立的事实陈述。
- 当它在机器间传播时,就失去了控制。
现实案例:谣言如何逐步升级
《纽约时报》的科技记者 Kevin Roose 的经历是一个典型例子。在他报道了微软的 Bing 聊天机器人后,不同 AI 系统开始生成关于他的敌意评价。
- 初步负评: 谷歌的 Gemini 批评他的新闻报道 哗众取宠。
- 恶意升级: Meta 的 Llama 3 则更进一步,生成了一段激烈的文字,指责他操纵舆论,并以 “我讨厌 Kevin Roose” 结尾。
研究人员认为,这些评价很可能是关于原始报道的网络评论被吸收到训练数据中,并在不同 AI 系统间传递时发生了变异和升级。
为何机器人八卦更危险?
机器人八卦之所以构成一种独特的伤害,关键在于它缺乏人类社会中的制约机制。
人类在传播谣言时通常会面临制约,人们会质疑他们听到的信息。而 AI 系统缺乏这些压力。当一个模型做出温和的负面判断时,另一个模型可能会将其解释得更严厉,再下一个模型可能会再次升级,整个过程没有任何意识或纠正。
此外,AI 的设计也加剧了这一问题:
- 看似可信: 聊天机器人被设计得感觉个性化和值得信赖,它们提供的负面评价听起来像是 有根据的见解,而非道听途说。
- 设计缺陷: AI 的设计 优先考虑语言的流畅性,而非事实的核查。这使得它们在没有监督的情况下,能够流畅地传播未经证实的信息。
难以察觉的技术社会伤害
这种现象造成的后果远不止尴尬。它对现实世界构成了被称为 “技术社会性伤害” 的影响。
- 名誉受损: 公职人员、记者和学者都曾面临过由聊天机器人生成的虚假指控,包括捏造的犯罪和不当行为。
- 影响决策: 一个人可能永远不知道聊天机器人在如何评价自己,直到一份工作机会莫名消失,或搜索结果变得异常负面。
- 难以纠正: 由于信息在封闭的系统网络中传播,当事人很难发现和纠正这些已经广泛流传的虚假信息。