Synth Daily

多项研究指出顶级AI公司风控“离谱”

两项新研究显示,全球领先的AI公司在风险管理方面存在“不可接受”的问题,并在许多安全领域表现出“严重缺乏承诺”。研究指出,即使是当前的AI也可能被用于网络攻击或制造生物武器,而未来的AI模型甚至可能完全失控。评估结果表明,没有一家公司的风险管理成熟度得分高于“弱”,这反映出尽管这些公司正在构建日益强大的技术,却普遍缺乏有效的控制和安全计划。

核心问题:安全承诺的缺失

根据非营利组织 SaferAI 和未来生命研究所 (FLI) 的研究,顶级AI公司在安全实践上言行不一。这些研究旨在揭示哪些公司不仅是口头上谈论安全,更在实际行动中落实安全措施。

当前AI技术已存在的风险包括:

  • 协助恶意行为者:可能被用于增强网络攻击或开发生物武器。
  • 失控风险:顶尖科学家担心,未来的AI模型可能会完全脱离人类的控制。

SaferAI研究:风险管理成熟度评估

SaferAI 专注于评估顶级AI公司的风险管理协议,并对其识别和缓解AI风险的方法进行评分。

评估结果显示,没有一家公司的表现优于 “弱”

  • Anthropic: 35%
  • OpenAI: 33%
  • Meta: 22%
  • Google DeepMind: 20%
  • Elon Musk 的 xAI: 18%

值得注意的是,Google DeepMind 的得分相对较低。研究人员指出,尽管谷歌进行了一些有价值的安全研究,但其政策中缺乏坚实的承诺。其在未分享安全信息的情况下发布新模型,被研究创始人 Siméon Campos 称为一次 “惊人的失败”

谷歌的一位发言人回应称,报告并未全面反映其所有的安全努力和行业基准。

Anthropic 的分数也有所下降,部分原因是在发布新模型前几天,该公司修改了其负责任扩展政策,删除了应对内部威胁的承诺

FLI研究:更广泛的安全评估

未来生命研究所 (FLI) 的研究范围更广,不仅考察风险管理,还评估了公司在应对当前危害、存在性安全、治理和信息共享等方面的做法。

基于公开资料和公司提供的非公开数据,一个独立专家小组给出了以下评级:

  • Anthropic: C+
  • OpenAI: C
  • Google: C-
  • xAI 与 Meta: D

最令人担忧的是,在“存在性安全”这一项上,所有公司的得分均为 D 或更低

“他们都说:我们想制造出能在各方面超越人类的超级智能机器,但他们却没有一个计划来控制这些东西。” — Max Tegmark, FLI 总裁