加州参议院已通过一项新的AI安全法案 SB 53,该法案主要针对年收入超过5亿美元的大型AI公司。其核心要求是强制这些公司发布安全报告、上报安全事故,并为员工提供受保护的举报渠道。与去年被否决的法案相比,SB 53 的范围更窄,旨在保护小型初创企业,并已获得AI公司 Anthropic 的支持,这使其更有可能成为法律,并成为对大型科技公司权力的重要制衡。
一项更具针对性的AI安全法案
加州的新法案 SB 53 标志着对AI行业监管的一种新尝试。它吸取了去年被否决的法案(SB 1047)的教训,将焦点从整个行业缩小到最具影响力的参与者。
该法案对大型AI公司提出了三项核心要求:
- 发布安全报告: 必须公开其模型的安全评估报告。
- 强制报告事故: 如果发生AI相关的安全事故,必须向政府报告。
- 保护举报人: 为内部员工提供向政府报告担忧的渠道,并保护他们免受公司的报复。
这可能是对科技公司权力的一次有意义的制衡,这是过去几十年来我们很少看到的。
成功可能性更高的原因
与之前的法案相比,SB 53 更有可能被签署成为法律,主要有两个原因:
- 明确的范围: 法案特意将监管对象限定为 年收入超过5亿美元 的AI开发者。这直接回应了外界对先前法案可能扼杀创新的担忧,因为它保护了加州蓬勃发展的创业生态系统。
- 行业支持: 值得注意的是,该法案获得了AI公司 Anthropic 的公开支持,这增加了其在立法过程中的可信度和分量。
为什么加州的立法至关重要
尽管这只是一项州级法案,但其影响力不容小觑。加州是全球AI活动的中心,几乎所有主要的AI公司,如 OpenAI 和 Google DeepMind,都在此设有总部或重要分支。因此,加州的法规实际上会为整个行业设定标准。
此外,这项法案也可能成为州与联邦层面在AI监管问题上角力的一部分。在联邦政府可能倾向于放松监管的背景下,加州等州正在积极探索自己的监管路径,以确保技术发展的安全性。