别信AI瞎编我说过的话

一种令人不安的趋势正在出现:人工智能(AI)正在大规模编造名人名言和普通人的观点,并将这些虚假内容散布到网络上。科幻作家约翰·斯卡尔齐等多位公众人物和普通人都成为了受害者,其声誉受到损害。这种由 AI 生成的虚假信息不仅误导公众,还通过污染信息源头来降低公共讨论的质量。尽管问题日益严重,但由于责任归属模糊,AI 公司、平台和用户之间相互推诿,导致有效遏制虚假信息变得极为困难。

AI 编造的“名人名言”

科幻作家约翰·斯卡尔齐(John Scalzi)发现,网络上流传着一些配有他照片的“名言”,但这些话他从未说过,照片也是 AI 生成的。

“宇宙是个笑话,一个很烂的笑话。”

斯卡尔齐指出,虽然这些话的风格听起来“有点像他会说的”,但内容与他的真实观点并不相符。他表示:“我知道自己听起来像什么,我一直和我自己待在一起。”

不只是名人的烦恼

AI 生成虚假引用不仅限于知名人士,普通人也深受其害。这个问题已经变得非常普遍:

    • 文章作者的亲身经历: 一篇博客文章中引用了作者从未说过的话,并错误地标注来源为《大西洋月刊》。在作者联系后,该文章被删除。
    • 被“创作”出的专家: 一些报纸分发的杂志式指南中,引用了一位名叫马克·埃里森(Mark Ellison)的自然向导的话,但他从未说过这些话。事后,该指南的作者承认使用了 ChatGPT 来生成内容。
    • 被“润色”的著作: 德国作家加布里埃尔·约兰(Gabriel Yoran)发现,一些关于他新书的评论和摘要中,混杂着 AI 生成的虚假引文。这些引文语气相似,但并非出自原书。

约兰担忧,如果作家的心血之作最终只是被机器粗糙地总结和篡改,那么未来“为什么还要仔细斟酌每一个词,思考每一个标点符号呢?”

AI:虚假信息的“超级引擎”

互联网上早已充斥着假名言,但 AI 聊天机器人的出现,使这个问题规模化和自动化了。

ChatGPTGoogle Gemini 这样的工具拥有超过十亿的活跃用户。它们以不容置疑的自信口吻提供信息,即使用户察觉到内容可疑,也很难辨别真伪。随后,这些被 AI 污染的内容被真实用户大规模地传播到社交媒体和各种在线互动中,进一步污染了公共话语空间。

这个过程正在用虚假的权威和先例来破坏辩论,并通过将人们从未说过、也绝不认同的观点强加于他们身上,来诋毁他们的名誉。

责任归属的困境

当虚假信息造成伤害时,追究责任变得异常困难。

    • AI 公司可以指责用户不该轻信机器的输出。
    • 用户可以指责公司提供了会“说谎”的服务。
    • 由于 AI 生成的内容很少被标注来源,受害者很难确定是哪个模型制造了谎言。

这种责任的扩散让许多人感到被操纵,却不知道该向谁追责。

无法分辨真伪的未来

斯卡尔齐警告说:“我们将越来越难以分辨哪些是真实的,哪些是虚假的。” AI 让制造伪装的机器变得自动化,而许多人倾向于不加核实地分享网上看到的内容,这使普通用户也可能成为“心甘情愿的错误信息传播途径”。

讽刺的是,当被问及 AI 公司的责任时,Google 的 Gemini 聊天机器人生成了这样一段话,并声称其出自 OpenAI 首席执行官萨姆·奥尔特曼之口:

“我认为,如果一家公司声称他们的模型能做某事,但实际上做不到,或者他们声称模型是安全的,但实际上不安全,我认为他们应该为此承担责任。”

然而,奥尔特曼从未说过这句话。这正是 AI 自己编造的。