两项新研究显示,全球领先的AI公司在风险管理方面存在“不可接受”的问题,并在许多安全领域表现出“严重缺乏承诺”。研究指出,即使是当前的AI也可能被用于网络攻击或制造生物武器,而未来的AI模型甚至可能完全失控。评估结果表明,没有一家公司的风险管理成熟度得分高于“弱”,这反映出尽管这些公司正在构建日益强大的技术,却普遍缺乏有效的控制和安全计划。
核心问题:安全承诺的缺失
根据非营利组织 SaferAI 和未来生命研究所 (FLI) 的研究,顶级AI公司在安全实践上言行不一。这些研究旨在揭示哪些公司不仅是口头上谈论安全,更在实际行动中落实安全措施。
当前AI技术已存在的风险包括:
- 协助恶意行为者:可能被用于增强网络攻击或开发生物武器。
- 失控风险:顶尖科学家担心,未来的AI模型可能会完全脱离人类的控制。
SaferAI研究:风险管理成熟度评估
SaferAI 专注于评估顶级AI公司的风险管理协议,并对其识别和缓解AI风险的方法进行评分。
评估结果显示,没有一家公司的表现优于 “弱”。
- Anthropic: 35%
- OpenAI: 33%
- Meta: 22%
- Google DeepMind: 20%
- Elon Musk 的 xAI: 18%
值得注意的是,Google DeepMind 的得分相对较低。研究人员指出,尽管谷歌进行了一些有价值的安全研究,但其政策中缺乏坚实的承诺。其在未分享安全信息的情况下发布新模型,被研究创始人 Siméon Campos 称为一次 “惊人的失败”。
谷歌的一位发言人回应称,报告并未全面反映其所有的安全努力和行业基准。
Anthropic 的分数也有所下降,部分原因是在发布新模型前几天,该公司修改了其负责任扩展政策,删除了应对内部威胁的承诺。
FLI研究:更广泛的安全评估
未来生命研究所 (FLI) 的研究范围更广,不仅考察风险管理,还评估了公司在应对当前危害、存在性安全、治理和信息共享等方面的做法。
基于公开资料和公司提供的非公开数据,一个独立专家小组给出了以下评级:
- Anthropic: C+
- OpenAI: C
- Google: C-
- xAI 与 Meta: D
最令人担忧的是,在“存在性安全”这一项上,所有公司的得分均为 D 或更低。
“他们都说:我们想制造出能在各方面超越人类的超级智能机器,但他们却没有一个计划来控制这些东西。” — Max Tegmark, FLI 总裁