最近一项名为 “Mythos” 的人工智能能力曝光,促使美国政府重新严肃对待 AI 安全问题,为中美就此议题的对话创造了新的开端。尽管中国也在逐步将 AI 风险纳入国内治理,但双方短期内达成实质性协议的可能性很低。更现实的合作路径可能局限于测试与评估等技术层面的有限交流。同时,中国对 AI 的治理正沿用其管理互联网的“先管控、再赋能、再治理”模式,未来或将更关注网络安全、劳动替代和社会稳定等具体问题。
AI 安全重回议程
最初,美国拜登政府曾试图将 AI 安全议题提上议程,但中方反应冷淡。随后,特朗普政府则公开嘲讽 AI 安全的重要性,使得中美对话一度中断。
然而,近期 Anthropic 公司的 “Mythos” 能力 曝光,彻底改变了局面。这一事件让美国政府认识到,具有潜在危险的强大 AI 能力已非遥远的理论推测,而是迫在眉睫的现实。
这种能力的进步与脆弱性的增加是分不开的。无论美国还是中国的模型变得越强大,滥用、危险和恶意行为者利用的风险就越大。
这一转变,为中美重启 AI 安全对话提供了一个完全不同的起点。
中国的国内视角与演变
在中国国内,关于 AI 安全的讨论也在不断演变。AI 安全议题在中国政策议程中的地位已显著提升,但具体思路尚未完全成型。
- 官方文件变化: 在中国官方发布的《人工智能安全与治理框架 2.0》中,相比旧版,新版对 AI 带来的社会影响给予了更多关注。
- 劳动力问题凸显: 文件中对劳动力问题的描述变得更为严肃。
旧版文件只是笼统提及 AI 会重塑社会关系,而新版则明确指出:“这将导致劳动力相对于资本的贬值以及相关的社会动荡。”
- 技术标准工作: 中国已成立一个关于技术标准的 AI 安全工作组,这表明官方正从技术层面开始系统性地思考这些问题。
尽管如此,当 “Mythos” 事件发生时,中国官僚机构内部反应不一。有人认为这只是新的网络安全问题,可控;也有人对此感到震惊并希望展开讨论。
合作的现实路径:技术层面交流
目前来看,中美之间达成某种关于 AI 的“宏大协议”的期望非常低。更现实和有益的努力方向是建立工作层面的技术性对话。
- 焦点领域: 合作应专注于 测试与评估 等具体技术环节。
- 分享信息: 双方可以分享关于如何测试模型风险的高阶信息。这有助于提升中方实验室的风险测试能力。
- 能力差距: 目前,中国顶尖 AI 实验室在“前沿风险”测试方面远不如美国。美国实验室因监管压力小,进行了大量自愿性测试;而中国实验室则忙于应对政府的合规要求。
提升中国方面的测试能力对双方都有利。即使美国在技术上领先,中国的 AI 能力也至关重要。我们应尽力帮助他们完善自身的安全测试体系。
“先管控、再赋能、再治理”:中国的互联网模式
中国治理 AI 的方式,与之前治理互联网巨头的路径惊人地相似,可以概括为一个三步走的模式:先管控、再赋能、再治理。
- 管控 (Control): 首先解决言论、审查和政治影响。对于互联网,这表现为建立防火墙和打击网络大 V。对于 AI,则体现在对推荐算法、深度伪造和生成式 AI 的严格监管上。
- 赋能 (Harness): 在感觉已有效管控后,便开始推动技术在经济中的应用。对于互联网,是“互联网+”行动。对于 AI,则是如今的 “AI+” 战略,即鼓励 AI 与制造业、医疗等各行各业结合。
- 治理 (Govern): 最后处理技术带来的各种连锁社会效应。对于互联网,这包括出台《网络安全法》、反垄断调查等。对于 AI,这个阶段才刚刚开始,例如最近针对“类人 AI”的规定,旨在解决成瘾、对未成年人的影响等社会问题。
接下来,中国对 AI 的治理可能会更深入地涉及网络安全、劳动力冲击和社会稳定等更广泛的议题。
不同的威胁感知
中美两国在感知 AI 风险的来源时存在差异,尤其是在非国家行为者(如恐怖组织)的威胁上。
- 美国的视角: 美国有一种基于现实的自我认知,即自身是国际恐怖主义的主要目标。因此,当讨论 AI 安全风险时,很自然会联想到恐怖分子利用 AI 制造生物武器等场景。
- 中国的视角: 中国虽然也担忧恐怖主义,但其关注点主要集中在 国内的特定群体 和 国家间的对抗(尤其是与美国)。他们对来自外部的非国家行为者的威胁感知相对较弱。
中共的心态是多疑的,总是在做最坏的打算。但他们对来自非国家行为者的化学或生物武器威胁的担忧,似乎不如对国家间竞争和系统失控的担忧那么强烈。
这种威胁感知的差异,也影响了两国在 AI 安全议题上的关注重点和对话方式。