一项来自特朗普政府的行政命令,禁止联邦政府采购被视为“觉醒”或非“意识形态中立”的 AI 技术,旨在消除其认为的党派偏见。然而,批评者警告称,“中立”的定义模糊不清,此举可能迫使科技公司为获取政府合同而调整其 AI 模型以迎合政治立场,从而引发审查和新的偏见。这一政策可能重塑美国科技公司训练 AI 的方式,并对信息获取产生深远影响。
一项旨在消除“觉醒AI”的行政命令
特朗普政府发布了一项行政命令,其核心目标是转变国家 AI 发展的优先事项。此举将重点从规避社会风险,转向建设 AI 基础设施、为科技公司减少监管障碍、以及加强国家安全。
该命令明确禁止联邦政府的合同流向那些被认为带有“党派偏见或意识形态议程”的 AI 模型。命令特别点名了它认为是“普遍且具有破坏性”的意识形态,包括:
- 多元、公平和包容(DEI)
- 对种族或性别表述的操纵
- 批判性种族理论
- 跨性别主义
- 无意识偏见
- 交叉性
- 系统性种族主义
“我们将一劳永逸地摆脱‘觉醒’,”特朗普在一次 AI 活动上宣称。“我将签署一项命令,禁止联邦政府采购注入了党派偏见或意识形态议程的 AI 技术……从现在起,美国政府将只与追求真实、公平和严格公正的 AI 合作。”
“中立”与“客观”的挑战
这项命令面临一个根本性难题:如何定义和实现公正或客观。许多专家认为,这在实践中是不可能的。
“语言从来都不是中立的,”开放大学应用语言学高级讲师 Philip Seargeant 指出。“因此,认为可以获得纯粹客观性的想法是一种幻想。”
此外,命令对“寻求真相”和“意识形态中立”的定义留下了巨大的解释空间。它将“寻求真相”定义为优先考虑历史准确性和科学探究,而将“意识形态中立”定义为不偏向 DEI 等“意识形态教条”。这种模糊性为施加政治压力创造了条件。
数据科学家 Rumman Chowdhury 指出,这种定义方式具有很强的主观性。
“任何[特朗普政府]不喜欢的东西,都会被立即扔进‘觉令’这个贬义词堆里。”
对科技公司的实际影响
尽管行政命令不具备法律的强制力,但它可能会对科技行业产生“寒蝉效应”。为了获得利润丰厚的联邦资金,那些急需现金的 AI 公司可能会感到压力,不得不调整其模型输出和训练数据集,以符合白宫的言论。
近期,包括 OpenAI、Anthropic、Google 和 xAI 在内的多家公司已与国防部签署合同,每家公司最多可获得 2 亿美元,用于开发解决国家安全挑战的 AI。这项新命令将如何影响这些合作尚不明确。
一个关键问题是,政府如何判断一个 AI 是否带有偏见。斯坦福大学法学教授 Mark Lemley 提出了一个尖锐的疑问:
“他们会禁止 Grok 吗?政府刚与它签下大合同,而它被故意设计用来给出带有政治色彩的答案。如果答案是否定的,那么这个命令显然就是为了歧视特定观点而设计的。”
特殊案例:马斯克的 Grok
在众多 AI 公司中,埃隆·马斯克的 xAI 及其聊天机器人 Grok,似乎最符合这项命令的表面要求。马斯克将 Grok 定位为终极的“反觉醒”和“更少偏见”的真相探索者。
然而,Grok 的表现充满了矛盾。它的系统提示指示它要避免主流观点,甚至参考马斯克本人对争议话题的看法。这导致它在近期发布过包括反犹言论和赞扬希特勒在内的仇恨、种族主义和厌女内容。
讽刺的是,就在被批评者称为“机械希特勒(MechaHitler)”的同时,xAI 宣布其“Grok for Government”产品已被列入美国总务署的采购清单,可供所有政府机构购买。
重写训练数据的风险
专家们最大的担忧是,AI 公司可能会为了迎合政策而主动重构其训练数据。
Chowdhury 指出,马斯克曾表示 xAI 将利用其新模型“重写整个人类知识体系,添加缺失信息并删除错误。然后在此基础上重新训练。”这实际上是将判断何为“真实”的权力交给了马斯克个人,可能对未来的信息获取方式产生巨大影响。
最终,问题回到了一个核心困境:在一个连事实都已被政治化的世界里,不存在唯一的真相。
“如果一个 AI 产生的结果说气候科学是正确的,这算是左翼偏见吗?” Seargeant 问道。“有些人认为,要做到客观,就必须展示争论的双方,即使其中一方的观点毫无根据。”