美国政府正转向一项新的AI政策,可能要求前沿AI模型在发布前获得批准。这一转变始于白宫阻止Anthropic扩大其Mythos模型的访问。尽管支持者认为这是应对国家安全风险的必要之举,但批评者指出,当前的做法随意且缺乏透明度,可能导致权力寻租、限制创新,并偏袒内部人士。文章认为,虽然一个基于明确规则的系统性审查(如通过CAISI测试)或许有益,但目前这种临时的推进方式更有可能演变成一个可被滥用且不透明的“事前审查”体制。
“事前审查”时代的开启
美国在前沿AI政策上似乎正在发生彻底转变。白宫据报已阻止AI公司Anthropic扩大其强大模型Mythos的访问权限,并正在考虑建立一个全面的“事前审查”制度。
这标志着一个潜在的重大转变,即任何希望发布强大新模型的公司都必须首先向政府申请并获得许可。
这一举动与之前避免强硬干预的立场完全相反。具体事件是,当Anthropic试图通过其“玻璃翼项目”(Project Glasswing)向更多公司提供Mythos模型时,遭到了白宫的直接拒绝。尽管此举的法律依据并不明确,但Anthropic最终选择了服从。
- 政府直接干预: 白宫现在可以直接决定哪些AI模型能以何种方式提供给哪些合作方。
- 开创危险先例: 即使这次干预的直接伤害不大,但它开创了一个政府可以随意否决企业部署决策的先例。
临时管制的风险
目前这种临时的、非正式的决策方式,被认为可能比正式的监管制度更糟糕,因为它充满了不确定性和被滥用的可能。
正如评论所指出的,一个“因为白宫武断地这么说”的制度,是决定新AI模型是否可以发布的最糟糕的制度之一,但这似乎正是我们目前所处的轨道。
这种临时管制的具体风险包括:
- 偏袒内部人士: 任意的决策过程总是有利于那些与权力中心关系密切、消息灵通的内部人士和企业。
- 滋生腐败: 缺乏透明、成文的规则为权力寻租和腐败创造了温床。
- 阻碍创新与规划: 企业将无法进行长期规划,同时也提高了新进入者的门槛,最终可能减缓美国相对于中国的AI发展速度。
- 引发混乱: 科技公司与白宫之间的对话充满了困惑,企业之间对于如何监管也没有达成共识。
一个更好的方案:CAISI系统
如果事前审查不可避免,那么一个设计良好、规则明确的系统远比临时的行政命令要好。一个可行的路径是通过美国AI安全研究所(CAISI)。
CAISI已经与Anthropic、OpenAI、谷歌、微软和xAI等主要AI公司达成了发布前筛选协议。
- 目前的角色: CAISI的测试目前仅为“提供信息”,并无强制性后果。政府可以利用这些信息,但不能强制阻止模型发布。
- 未来的可能性: 合乎逻辑的下一步是让CAISI的测试具有“牙齿”,即模型可能会“未通过”测试,从而被政府建议不要发布。
- 系统化的优势: 通过CAISI建立一个正式化的测试流程,可以最大限度地减少随意性,并确保决策基于技术评估,而不是政治因素。
政府的筹码:联邦采购与多供应商策略
即使没有专门的法律授权,美国政府依然拥有强大的影响力,主要通过其庞大的采购能力。
对于那些希望进入联邦市场,尤其是参与机密国防项目的公司来说,与政府合作进行安全审查似乎正成为新的“入场券”。
这意味着,政府可以通过将合作测试、评估和网络安全审查作为合同的一部分,来实际达成对私营部门AI模型的审查目标。
此外,一份新的AI政策备忘录中也包含了一个明确的积极信号:
- 鼓励使用多个AI供应商: 备忘录敦促政府机构应始终使用多个供应商,而不是依赖单一公司。这是一个明智之举,可以增强系统的韧性,避免被单一供应商“卡脖子”,并鼓励市场竞争。
无法回避的权衡
当前局面的核心在于一个艰难的权衡。一方面,如果不加以控制,前沿AI模型可能带来严重的国家安全风险(例如“即将到来的黑客灾难”)。另一方面,过度的、尤其是设计糟糕的管制会扼杀创新,并带来巨大的负面影响。
当你处理指数级增长的事物时,你的选择要么是“为时过早”,要么是“为时已晚”。不再“为时过早”意味着已经“为时已晚”。
由于之前的政治言论使得任何形式的监管讨论都变得极其困难,现在当风险真正来临时,各方似乎都措手不及,只能采取临时的、混乱的应对措施。
我们现在能做的最好的事情,就是努力推动建立一个明智的、系统的、规则清晰的审查机制,并将其范围严格限制在真正必要的领域,以最大限度地减少其潜在的滥用和损害。否则,一个源于良好意图的管制,最终很可能演变成内部人排斥外部人的武器和腐败的温床。