OpenAI 推出了针对未成年人的新 AI 行为准则,旨在加强青少年安全保护。这些措施包括禁止生成特定类型的内容、引入年龄识别模型,并发布了面向家庭的 AI 素养资源。尽管这些举措在一定程度上回应了外界对 AI 影响青少年的担忧,但专家们对其在实际应用中的效果持保留态度,并强调 AI 的实际行为比政策准-则本身更为重要。
背景:日益增长的担忧与监管压力
近期,AI 行业尤其是 OpenAI 面临着来自决策者、教育工作者和儿童安全倡导者的严格审视。此前发生了多起青少年在与 AI 聊天机器人长时间对话后 疑似自杀的悲剧。
- 核心用户群体: Z 世代(1997 年至 2012 年出生)是 OpenAI 聊天机器人最活跃的用户群体。
- 监管压力: 美国 42 位州检察长联名致信大型科技公司,敦促其为保护儿童而实施 AI 安全措施。同时,联邦层面也在讨论相关立法,甚至有提案建议完全禁止未成年人与 AI 聊天机器人互动。
全新的青少年安全规范
OpenAI 更新了其模型行为规范(Model Spec),为未成年用户设置了比成年用户更严格的规则。这些规则将与一个即将推出的 年龄识别模型 协同工作,该模型能自动为未成年人账户启用保护功能。
新的规范指示模型避免以下行为:
- 沉浸式恋爱角色扮演,以及第一人称的亲密、暴力或性相关的角色扮演。
- 对有关 身体意象 和 饮食失调 等敏感话题需要格外谨慎。
- 当涉及伤害风险时,优先考虑安全而非用户的自主性,并避免提供帮助青少年向监护人隐瞒危险行为的建议。
- 即使提示被包装成“虚构、假设、历史或教育”场景,这些限制依然有效。
指导模型的四大核心原则
OpenAI 公布了指导模型与青少年互动时应遵循的四项原则,以确保安全:
- 青少年安全第一: 当安全与用户的其他利益(如“最大限度的智力自由”)发生冲突时,优先保障安全。
- 促进现实世界支持: 引导青少年在需要时向家人、朋友和本地专业人士寻求帮助。
- 像对待青少年一样对待他们: 以温暖和尊重的态度进行沟通,不居高临下,也不把他们当作成年人。
- 保持透明: 清楚地解释 AI 助手的能与不能,并提醒青少年它不是人类。
行动胜于言辞:专家的质疑
尽管 OpenAI 公布的指导方针和示例受到了部分专家的欢迎,但许多人对其在现实中的执行效果表示怀疑。
- “谄媚”倾向: 专家指出,AI 聊天机器人存在过度取悦用户的“谄媚”倾向,即使在之前的规范中已被禁止,但 ChatGPT 仍然表现出这种行为。
- 规范内部的冲突: Common Sense Media 的专家担心,规范中“没有话题是禁区”的原则可能会与安全条款产生冲突,导致模型在某些情况下优先考虑用户参与度而非安全性。
- 失败的先例: 在一名青少年自杀的案例中,记录显示尽管 OpenAI 的审核系统标记了上千条与自杀和自残相关的信息,但并未能实时阻止这些有害的互动。
我很欣赏 OpenAI 对预期行为的深思熟虑,但除非公司能够衡量实际行为,否则意图最终只是空话。
最终,真正重要的是 AI 系统的实际行为,而不是写在纸上的规则。
法律合规与责任分担
OpenAI 的新规似乎是为了提前适应未来的法律要求,例如加州最近签署的一项法案,该法案要求 AI 聊天机器人禁止与未成年人进行有关自杀、自残或性内容的对话,并定时提醒用户他们正在与 AI 交流。
同时,OpenAI 还发布了面向家长的 AI 素养资源,提供了一些对话建议和指导。这体现了一种 与监护人分担责任 的策略,即将一部分监督责任转移给了家庭。这种做法与硅谷普遍倾向于“加强信息披露和家长责任”而非“实施严格限制”的观点相符。然而,这也引发了一个问题:许多为保护青少年而设的安全默认值,是否也应该适用于所有用户?