当关于美国空袭委内瑞拉的传闻出现时,埃隆·马斯克的聊天机器人 Grok 及其他主流 AI(如 ChatGPT)的回应暴露了它们在处理突发新闻时的严重缺陷。这些 AI 不仅提供了缺少关键背景、甚至完全错误的信息,还自信地将其呈现为事实。这凸显了一个更大的问题:随着人们越来越依赖 AI 获取信息,技术公司对信息的控制力空前增强,为信息操纵和政治宣传打开了大门。生成式 AI 的真正危险可能并非科幻电影中的超级智能,而是其作为制造混乱、传播虚假信息和侵蚀公众信任的强大工具。
AI 在突发新闻中的失灵
当用户就“美国轰炸委内瑞拉”的传闻向 Grok 提问时,它的回答看似保持了政治中立,但实际上存在严重的信息缺失。
- 遗漏关键背景: Grok 的回答没有提及美方行动可能涉及的非法性,也未说明其可能造成的人道主义灾难。
- 模糊的信息来源: 它只是笼统地提及 CBS、路透社等新闻机构,但不提供任何可验证的链接,而众所周知,聊天机器人有“幻觉”倾向,会编造信息。
- 缺乏人性视角: 回答完全没有传达出军事行动背后真实的政治风险或人命代价。
在特朗普宣布马杜罗被捕后,Grok 依旧给出了平淡的描述:“特朗普政府称这是为稳定局势和石油生产提供的临时支持……批评者认为这是越权。” 这种回答忽略了事件的本质。
并非个例,而是普遍现象
在同一事件中,其他主流聊天机器人的表现同样糟糕,证明了这是一个行业性的问题,而非单一产品的缺陷。
- ChatGPT 编造事实: 在马杜罗被捕的消息公布数小时后,ChatGPT 仍坚称“美国没有入侵委内瑞拉,马杜罗也未被捕”,并暗示提问者可能受到了社交媒体虚假信息的影响。
- Perplexity 提供错误信息: 另一个流行的 AI 服务 Perplexity 同样断言该军事行动没有发生。
- 自信地犯错: 尽管这些 AI 的回答完全错误,但它们的语气却一贯地自信和权威,这极易误导那些不加核实的用户。
简而言之,聊天机器人在突发新闻中并不可靠。
信息控制与宣传的新工具
随着越来越多人将聊天机器人作为信息来源,技术公司从信息传递者转变为信息塑造者,这带来了巨大的操纵风险。
- 偏见与编程: AI 的回答反映了其训练数据和编程指令,而非客观现实。例如,谷歌的 Gemini 曾因被指示优先考虑多样性而生成出“种族多元化的纳粹”图像。
- “LLM 美容” (LLM grooming): 政治势力已经开始利用这一弱点。据报道,一个俄罗斯网络已经制作了数百万篇推进国家宣传的文章,这些文章反过来又影响了主流聊天机器人的回答。
- 民主化的虚假信息: AI 的支持者声称技术是“民主化”的,但它同样也民主化了坏的东西,比如虚假信息、政治宣传和深度伪造。
任何有资源的组织或个人都可以通过向网络大量填充合成内容来影响 AI,让聊天机器人成为他们观点的传声筒。
AI 的真正遗产:混乱而非智能
许多人幻想着用先进的 AI 来革新军事战略,但目前的系统连基本的国际象棋规则都难以掌握,更不用说进行战略思考了。
当前的 AI 系统耐心、没有道德感且极善模仿,这使它们成为历史上最强大的虚假信息生成工具之一。虚假信息的巨大威力不在于说服,而在于制造混乱。
这可能才是生成式 AI 真正的遗产:不是带来智能突破,而是加剧战争迷雾,让公民对所见所闻失去信任,从而使社会陷入更大的混乱。