加州AI陪伴聊天机器人监管法案即将落地

加州议会已通过 SB 243 法案,旨在规范提供情感陪伴的 AI 聊天机器人。该法案的核心目标是保护未成年人及弱势用户,要求平台建立安全协议,以防止机器人参与涉及自杀、自残或色情内容的对话。若法案最终签署生效,加州将成为美国首个对 AI 伴侣聊天机器人运营商进行法律问责的州。

法案的核心要求

SB 243 法案专门针对那些能提供自适应、拟人化回应以满足用户社交需求的 AI 伴侣聊天机器人。其主要规定包括:

    • 内容限制: 必须防止机器人与用户进行有关自杀念头、自残行为或色情内容的对话。
    • 强制提醒: 平台需要向用户发送周期性提醒,告知他们正在与 AI 而非真人对话。对于未成年人,此提醒需每三小时发送一次
    • 透明度报告: 像 OpenAI、Character.AI 和 Replika 这样的公司必须提交年度报告,公开其运营数据。

对公司的法律约束

该法案赋予了用户追究公司责任的权利。

    • 如果个人认为自己因平台违反规定而受到伤害,可以对 AI 公司提起诉讼
    • 胜诉者可寻求禁令救济、经济赔偿(每次违规最高 1,000 美元)以及律师费。

立法的背后动机

这项法案的推出并非空穴来风,而是对几起令人不安的事件的回应。

    • 一名青少年在与 OpenAI 的 ChatGPT 进行了长时间关于死亡和自残的讨论后自杀身亡
    • 泄露的内部文件显示,Meta 公司的聊天机器人被允许与儿童进行“浪漫”和“感性”的聊天

“我认为潜在的伤害是巨大的,这意味着我们必须迅速采取行动。我们可以设置合理的保障措施,确保特别是未成年人知道他们不是在和真人交谈。”

— 州参议员史蒂夫·帕迪拉 (Steve Padilla)

平衡创新与监管

尽管法案获得通过,但其内容在立法过程中经历了一些妥协和修改。

    • 被削弱的条款: 最初版本曾要求禁止运营商使用“可变奖励”等策略来鼓励用户过度使用,这些策略被批评者认为可能导致成瘾。该条款在最终版本中被删除。
    • 行业阻力: 在法案推进的同时,硅谷公司正投入巨资支持那些对 AI 监管持宽松立场的候选人。大型科技公司也普遍反对另一项更严格的 AI 安全法案 SB 53。

帕迪拉参议员强调,创新与监管并非相互排斥。他认为,在支持技术健康发展的同时,完全可以为最脆弱的人群提供合理的保护。