Synth Daily

AI治理一周速览

本周,AI 治理领域动态频发。欧盟的《AI 行为准则》获得了多数主要公司的签署,但 Meta 拒绝签署,而 xAI 仅同意安全条款,凸显了行业在自我监管上的分歧。美国政府计划使用名为“DOGE AI”的工具来削减联邦法规,引发了对过度去监管和 AI 滥用的担忧。与此同时,中国发布了呼吁国际合作的 AI 行动计划,但其开放立场被外界解读为追赶美国的技术策略。研究表明,尽管 AI 条约的验证充满挑战,但技术上仍是可行的。最后,美国的 AI 行动计划因其“AI 竞赛”的言辞而受到批评,这种论调可能导致对 AI 核心风险的忽视,而英伟达向中国出售降级版 H20 芯片的行为也引发了国家安全专家的严重关切。

欧盟 AI 行为准则:行业巨头的不同立场

欧盟的《AI 行为准则》在行业内引发了不同的反应,多数公司承诺签署,但也有明显的例外。

  • 主要签署方: Anthropic、谷歌、OpenAI、Mistral 等公司承诺签署该准则。谷歌已经签署,微软也表示可能签署。
  • 部分签署方: xAI 公司仅签署了关于 AI 安全的章节,认为其他部分(尤其是版权相关条款)是过度监管,称其“不切实际”。
  • 拒绝签署方: Meta 是唯一明确表示 完全不会签署 的公司,这使其在安全承诺方面成为一个明显的“局外人”。

这一动态凸显了一个核心问题:在 AI 安全和监管方面,行业内部远未达成共识。Meta 的立场尤其引人注目,因为它再次将自己置于了与主流安全倡议相对立的位置。

美国政府的“去监管”AI 工具

美国政府正在开发一个名为“DOGE AI 去监管决策工具”的系统,其目标是通过 AI 识别并削减不再被法律强制要求的联邦法规。

根据一份泄露的演示文稿,该工具旨在分析约 20 万项联邦法规,并预计其中约 10 万项可以被削减。支持者声称,这将通过减少合规要求为美国节省数万亿美元。

然而,这种做法引发了严重的担忧:

  • 简化的逻辑: 该工具似乎将法规简单地分为“法律要求”和“可削减”两类,忽略了许多法规存在的实际价值和必要性。
  • 对专业判断的替代: 尽管官方声称该工具旨在“辅助”而非“替代”员工的专业判断,但其设计初衷是为了大幅减少人力投入,每项法规的取消过程仅需几小时的人工审查。
  • AI 的可靠性: AI 工具本身在处理复杂法规时可能会犯下技术性错误,盲目依赖它可能导致意想不到的负面后果。

“白宫希望我们在排行榜上排名更高,”一位知情人士表示。“但你需要有员工和时间来撰写废除监管的通知,而我们没有。这就是延误的一大原因。”

这个工具的出现,反映了一种试图利用技术来强行推进“去监管”议程的倾向,其潜在风险不容忽视。

中国的 AI 行动计划与国际解读

中国发布了一项 AI 行动计划,呼吁全球合作、开放共享和加速发展。该计划强调了以下几点:

  • 共同抓住 AI 机遇: 呼吁各国政府、企业和研究机构合作,加速数字基础设施建设。
  • 促进 AI 创新: 主张开放共享,建立国际科技合作平台,消除技术壁垒。
  • 构建多元开放的开源生态: 推动跨境开源社区和安全平台。
  • 治理 AI 安全: 提出进行及时的风险评估,建立被广泛接受的安全框架,并分享威胁情报。

尽管措辞积极,但国际社会对这份计划的解读却各不相同:

  • 追赶策略: 路透社等媒体认为,这是中国试图通过呼吁“开放”来追赶在 AI 领域领先的美国,确保自己不会被排除在技术发展之外。
  • 制衡美国: 《日本时报》则将其解读为中国试图建立一个联盟,以对抗美国在 AI 领域的潜在垄断。
  • 安全与发展的平衡: 另有观点认为,这是中国在呼吁全球协调,以平衡 AI 发展与安全风险。

“我们注意到你们在 AI 方面处于领先地位,这不公平。你们应该把一切都公开,让我们在你们领先的方面追赶上来,这样我们就可以利用我们领先的方面来击败你们。”

这种解读认为,中国计划的核心目标是利用“开放”和“多边主义”的言辞,来弥补自身在核心技术上的差距。

AI 条约验证的可能性

如果未来需要与中国等国家就 AI 达成协议,我们能否有效验证对方是否遵守了协议?一份来自兰德公司的研究报告认为,尽管挑战巨大,但强有力的验证是可能的

验证面临的挑战包括:

  • 验证范围狭窄,例如“禁止训练超过特定能力的模型”。
  • 需要发现国家级别的主要作弊行为。
  • 保护模型、数据和算法的机密性。

报告提出了一些可行的验证方法:

  • 硬件层面: 利用芯片已有的安全功能(如机密计算),或在数据中心加装网络传感器等“离线”监控设备。
  • 人员层面: 建立举报人计划和对相关人员进行访谈。
  • 情报活动: 利用传统的情报手段(HUMINT 和 SIGINT)提供保障。

正如杰弗里·拉迪什所指出的:“就像核战争一样,如果任何一方失去了对超人 AI 的控制,所有人都会输。这使得协调变得更容易,因为即使双方互不喜欢或不信任,他们也有动机合作以避免极其糟糕的结果。”

关键在于,我们现在就需要开始研究和准备这些验证工具,而不是等到需要时才发现无计可施。

美国 AI 行动计划:良好的政策与糟糕的言辞

美国的 AI 行动计划在具体政策层面获得了普遍好评,其许多提案被认为是务实且有益的。然而,该计划的整体言辞和框架却引发了严重担忧。

  • 积极的政策: 该计划提出了许多具体的、可操作的建议,在许多方面超出了预期。
  • 危险的言辞: 整个计划被包装在一种“AI 竞赛”的叙事中,强调“击败中国”和最大化“市场份额”,尤其是芯片市场份额。这种言辞完全忽视了 AI 带来的生存风险

“如果你的动机是为了牺牲未来、让我们所有人都被杀死,来最大化英伟达的市场份额,那么我就会一直重复这一点,直到我脸色发青。”

这种将 AI 发展简化为国家间零和博弈的论调,不仅会加剧国际紧张局势,还会导致决策者忽视真正重要的问题,例如如何确保在开发强大 AI 的同时人类能够保持控制。

英伟达芯片出口争议

一个具体的争议点是英伟达向中国出售其降级版的 H20 芯片。

  • 国家安全风险: 20 名国家安全专家敦促美国政府限制此类销售,指出这些芯片可以增强中国的军事能力,因为中国的“军民融合”战略确保了这些技术会被用于军事目的。
  • 英伟达的动机: 英伟达不仅在出售现有库存,还在台积电下了新订单生产更多 H20 芯片。这表明该公司优先考虑的是中国市场的利润,而不是美国的国家安全或芯片产能的战略分配。
  • 走私问题严重: 尽管英伟达声称“没有证据表明 AI 芯片被转移”,但有大量证据表明,包括 B200 在内的高端芯片正被大量走私到中国。同时,英伟达还游说反对能够提供此类证据的芯片位置验证软件。

“英伟达成功游说,让其最强大的 AI 芯片进入中国,这太有‘资本家会卖给我们绞死他们自己的绳索’那味儿了。”

这一系列事件表明,在追求商业利益和维护国家战略优势之间,存在着深刻的矛盾。