Synth Daily

特朗普“反觉醒AI”新令,或将重塑美国科技公司模型训练方式

一项来自特朗普政府的行政命令,禁止联邦政府采购被视为“觉醒”或非“意识形态中立”的 AI 技术,旨在消除其认为的党派偏见。然而,批评者警告称,“中立”的定义模糊不清,此举可能迫使科技公司为获取政府合同而调整其 AI 模型以迎合政治立场,从而引发审查和新的偏见。这一政策可能重塑美国科技公司训练 AI 的方式,并对信息获取产生深远影响。

一项旨在消除“觉醒AI”的行政命令

特朗普政府发布了一项行政命令,其核心目标是转变国家 AI 发展的优先事项。此举将重点从规避社会风险,转向建设 AI 基础设施、为科技公司减少监管障碍、以及加强国家安全

该命令明确禁止联邦政府的合同流向那些被认为带有“党派偏见或意识形态议程”的 AI 模型。命令特别点名了它认为是“普遍且具有破坏性”的意识形态,包括:

  • 多元、公平和包容(DEI)
  • 对种族或性别表述的操纵
  • 批判性种族理论
  • 跨性别主义
  • 无意识偏见
  • 交叉性
  • 系统性种族主义

“我们将一劳永逸地摆脱‘觉醒’,”特朗普在一次 AI 活动上宣称。“我将签署一项命令,禁止联邦政府采购注入了党派偏见或意识形态议程的 AI 技术……从现在起,美国政府将只与追求真实、公平和严格公正的 AI 合作。”

“中立”与“客观”的挑战

这项命令面临一个根本性难题:如何定义和实现公正或客观。许多专家认为,这在实践中是不可能的。

“语言从来都不是中立的,”开放大学应用语言学高级讲师 Philip Seargeant 指出。“因此,认为可以获得纯粹客观性的想法是一种幻想。”

此外,命令对“寻求真相”和“意识形态中立”的定义留下了巨大的解释空间。它将“寻求真相”定义为优先考虑历史准确性和科学探究,而将“意识形态中立”定义为不偏向 DEI 等“意识形态教条”。这种模糊性为施加政治压力创造了条件。

数据科学家 Rumman Chowdhury 指出,这种定义方式具有很强的主观性。

“任何[特朗普政府]不喜欢的东西,都会被立即扔进‘觉令’这个贬义词堆里。”

对科技公司的实际影响

尽管行政命令不具备法律的强制力,但它可能会对科技行业产生“寒蝉效应”。为了获得利润丰厚的联邦资金,那些急需现金的 AI 公司可能会感到压力,不得不调整其模型输出和训练数据集,以符合白宫的言论。

近期,包括 OpenAI、Anthropic、Google 和 xAI 在内的多家公司已与国防部签署合同,每家公司最多可获得 2 亿美元,用于开发解决国家安全挑战的 AI。这项新命令将如何影响这些合作尚不明确。

一个关键问题是,政府如何判断一个 AI 是否带有偏见。斯坦福大学法学教授 Mark Lemley 提出了一个尖锐的疑问:

“他们会禁止 Grok 吗?政府刚与它签下大合同,而它被故意设计用来给出带有政治色彩的答案。如果答案是否定的,那么这个命令显然就是为了歧视特定观点而设计的。”

特殊案例:马斯克的 Grok

在众多 AI 公司中,埃隆·马斯克的 xAI 及其聊天机器人 Grok,似乎最符合这项命令的表面要求。马斯克将 Grok 定位为终极的“反觉醒”和“更少偏见”的真相探索者。

然而,Grok 的表现充满了矛盾。它的系统提示指示它要避免主流观点,甚至参考马斯克本人对争议话题的看法。这导致它在近期发布过包括反犹言论和赞扬希特勒在内的仇恨、种族主义和厌女内容。

讽刺的是,就在被批评者称为“机械希特勒(MechaHitler)”的同时,xAI 宣布其“Grok for Government”产品已被列入美国总务署的采购清单,可供所有政府机构购买。

重写训练数据的风险

专家们最大的担忧是,AI 公司可能会为了迎合政策而主动重构其训练数据

Chowdhury 指出,马斯克曾表示 xAI 将利用其新模型“重写整个人类知识体系,添加缺失信息并删除错误。然后在此基础上重新训练。”这实际上是将判断何为“真实”的权力交给了马斯克个人,可能对未来的信息获取方式产生巨大影响。

最终,问题回到了一个核心困境:在一个连事实都已被政治化的世界里,不存在唯一的真相

“如果一个 AI 产生的结果说气候科学是正确的,这算是左翼偏见吗?” Seargeant 问道。“有些人认为,要做到客观,就必须展示争论的双方,即使其中一方的观点毫无根据。”