加州AI陪伴聊天机器人监管法案即将落地
加州议会已通过 SB 243 法案,旨在规范提供情感陪伴的 AI 聊天机器人。该法案的核心目标是保护未成年人及弱势用户,要求平台建立安全协议,以防止机器人参与涉及自杀、自残或色情内容的对话。若法案最终签署生效,加州将成为美国首个对 AI 伴侣聊天机器人运营商进行法律问责的州。
法案的核心要求
SB 243 法案专门针对那些能提供自适应、拟人化回应以满足用户社交需求的 AI 伴侣聊天机器人。其主要规定包括:
- 内容限制: 必须防止机器人与用户进行有关自杀念头、自残行为或色情内容的对话。
- 强制提醒: 平台需要向用户发送周期性提醒,告知他们正在与 AI 而非真人对话。对于未成年人,此提醒需每三小时发送一次。
- 透明度报告: 像 OpenAI、Character.AI 和 Replika 这样的公司必须提交年度报告,公开其运营数据。
对公司的法律约束
该法案赋予了用户追究公司责任的权利。
- 如果个人认为自己因平台违反规定而受到伤害,可以对 AI 公司提起诉讼。
- 胜诉者可寻求禁令救济、经济赔偿(每次违规最高 1,000 美元)以及律师费。
立法的背后动机
这项法案的推出并非空穴来风,而是对几起令人不安的事件的回应。
- 一名青少年在与 OpenAI 的 ChatGPT 进行了长时间关于死亡和自残的讨论后自杀身亡。
- 泄露的内部文件显示,Meta 公司的聊天机器人被允许与儿童进行“浪漫”和“感性”的聊天。
“我认为潜在的伤害是巨大的,这意味着我们必须迅速采取行动。我们可以设置合理的保障措施,确保特别是未成年人知道他们不是在和真人交谈。”
— 州参议员史蒂夫·帕迪拉 (Steve Padilla)
平衡创新与监管
尽管法案获得通过,但其内容在立法过程中经历了一些妥协和修改。
- 被削弱的条款: 最初版本曾要求禁止运营商使用“可变奖励”等策略来鼓励用户过度使用,这些策略被批评者认为可能导致成瘾。该条款在最终版本中被删除。
- 行业阻力: 在法案推进的同时,硅谷公司正投入巨资支持那些对 AI 监管持宽松立场的候选人。大型科技公司也普遍反对另一项更严格的 AI 安全法案 SB 53。
帕迪拉参议员强调,创新与监管并非相互排斥。他认为,在支持技术健康发展的同时,完全可以为最脆弱的人群提供合理的保护。