OpenAI 正支持一项伊利诺伊州的法案,该法案旨在保护大型 AI 公司免于因其技术造成大规模灾难(如上百人死亡或超十亿美元损失)而承担法律责任。其核心论点是,只要公司不是故意或鲁莽行事并发布了安全报告,就应获得豁免。OpenAI 认为这有助于推动统一的联邦监管,避免各州法规混乱。然而,该法案面临强烈的公众反对和立法障碍,凸显了在缺乏联邦指导的情况下,关于 AI 责任和安全的法律空白与争议。
法案的核心:有限责任
伊利诺伊州的 SB 3444 法案为“前沿 AI 开发者”提供了一个法律保护伞。
- 适用对象: “前沿模型”开发者,即训练成本超过 1 亿美元 的 AI 模型,这包括 OpenAI、Google、Anthropic 和 Meta 等巨头。
- 豁免条件: 如果其 AI 模型造成了“关键损害”,只要开发者能证明自己 并非故意或鲁莽 造成此事件,并且已公开发布安全、安保和透明度报告,即可免于承担责任。
- “关键损害”的定义:
- 导致 100 人或以上 死亡或重伤。
- 造成至少 10 亿美元 的财产损失。
- 被用于制造化学、生物、放射性或核武器。
这一法案本质上是在划定一条界线:如果灾难不是出于开发者的恶意或重大过失,那么责任就不应由他们承担。
OpenAI 的立场与动机
OpenAI 的支持标志着其立法策略的转变,从被动防御转向主动推动特定类型的监管框架。他们认为这种方法有几个好处:
- 聚焦重大风险: 将监管重点放在最先进 AI 系统可能造成的 最严重危害 上,同时不影响技术的普及。
- 避免法规混乱: OpenAI 的全球事务团队成员 Caitlin Niedermeyer 认为,需要避免“不一致的州级要求拼凑在一起,这会制造摩擦,却无法有效提升安全性”。
- 推动全国统一: 支持此法案是为了“朝着更清晰、更一致的国家标准迈进”,最终形成联邦层面的监管框架。
- 维护创新领导力: Niedermeyer 强调,“前沿监管的北极星应该是以安全的方式部署最先进的模型,同时保持美国在创新领域的领导地位。”
反对声音与现实障碍
尽管 OpenAI 积极游说,但该法案在伊利诺伊州通过的可能性很小。
- 公众强烈反对: 安全 AI 项目的政策主管 Scott Wisor 指出,民意调查显示 90% 的伊利诺伊州民众反对 豁免 AI 公司的责任。
- 州的监管历史: 伊利诺伊州以其对科技行业的严格监管而闻名。该州不仅有其他旨在 增加 AI 开发者责任的法案,也是全美第一个通过《生物信息隐私法》和限制 AI 在心理健康服务中应用的州。
Wisor 表示:“没有理由让现有的 AI 公司减少其应承担的责任。”
更大的背景:监管真空
这一事件凸显了一个更广泛的问题:在美国,关于 AI 造成灾难性事件后由谁负责的法律问题,至今仍未解决。
- 联邦立法缺位: 尽管白宫发布了行政命令和指导框架,但国会至今未能就具体的 AI 法案达成共识。
- 各州各自为政: 在联邦层面缺乏指导的情况下,加利福尼亚和纽约等州已经开始制定自己的规则,要求 AI 开发者提交安全和透明度报告。
- 悬而未决的核心问题: 随着 AI 模型变得越来越强大,如果某一天 AI 真的引发了一场灾难,法律体系该如何应对,这仍然是一个开放性的问题。