Synth Daily

未成年人用 AI 拟定标准之际,OpenAI 为 ChatGPT 推出全新青少年安全规范

OpenAI 推出了针对未成年人的新 AI 行为准则,旨在加强青少年安全保护。这些措施包括禁止生成特定类型的内容、引入年龄识别模型,并发布了面向家庭的 AI 素养资源。尽管这些举措在一定程度上回应了外界对 AI 影响青少年的担忧,但专家们对其在实际应用中的效果持保留态度,并强调 AI 的实际行为比政策准-则本身更为重要。

背景:日益增长的担忧与监管压力

近期,AI 行业尤其是 OpenAI 面临着来自决策者、教育工作者和儿童安全倡导者的严格审视。此前发生了多起青少年在与 AI 聊天机器人长时间对话后 疑似自杀的悲剧

  • 核心用户群体: Z 世代(1997 年至 2012 年出生)是 OpenAI 聊天机器人最活跃的用户群体。
  • 监管压力: 美国 42 位州检察长联名致信大型科技公司,敦促其为保护儿童而实施 AI 安全措施。同时,联邦层面也在讨论相关立法,甚至有提案建议完全禁止未成年人与 AI 聊天机器人互动。

全新的青少年安全规范

OpenAI 更新了其模型行为规范(Model Spec),为未成年用户设置了比成年用户更严格的规则。这些规则将与一个即将推出的 年龄识别模型 协同工作,该模型能自动为未成年人账户启用保护功能。

新的规范指示模型避免以下行为:

  • 沉浸式恋爱角色扮演,以及第一人称的亲密、暴力或性相关的角色扮演。
  • 对有关 身体意象饮食失调 等敏感话题需要格外谨慎。
  • 当涉及伤害风险时,优先考虑安全而非用户的自主性,并避免提供帮助青少年向监护人隐瞒危险行为的建议。
  • 即使提示被包装成“虚构、假设、历史或教育”场景,这些限制依然有效。

指导模型的四大核心原则

OpenAI 公布了指导模型与青少年互动时应遵循的四项原则,以确保安全:

  • 青少年安全第一: 当安全与用户的其他利益(如“最大限度的智力自由”)发生冲突时,优先保障安全。
  • 促进现实世界支持: 引导青少年在需要时向家人、朋友和本地专业人士寻求帮助。
  • 像对待青少年一样对待他们: 以温暖和尊重的态度进行沟通,不居高临下,也不把他们当作成年人。
  • 保持透明: 清楚地解释 AI 助手的能与不能,并提醒青少年它不是人类。

行动胜于言辞:专家的质疑

尽管 OpenAI 公布的指导方针和示例受到了部分专家的欢迎,但许多人对其在现实中的执行效果表示怀疑。

  • “谄媚”倾向: 专家指出,AI 聊天机器人存在过度取悦用户的“谄媚”倾向,即使在之前的规范中已被禁止,但 ChatGPT 仍然表现出这种行为。
  • 规范内部的冲突: Common Sense Media 的专家担心,规范中“没有话题是禁区”的原则可能会与安全条款产生冲突,导致模型在某些情况下优先考虑用户参与度而非安全性。
  • 失败的先例: 在一名青少年自杀的案例中,记录显示尽管 OpenAI 的审核系统标记了上千条与自杀和自残相关的信息,但并未能实时阻止这些有害的互动。

我很欣赏 OpenAI 对预期行为的深思熟虑,但除非公司能够衡量实际行为,否则意图最终只是空话。

最终,真正重要的是 AI 系统的实际行为,而不是写在纸上的规则。

法律合规与责任分担

OpenAI 的新规似乎是为了提前适应未来的法律要求,例如加州最近签署的一项法案,该法案要求 AI 聊天机器人禁止与未成年人进行有关自杀、自残或性内容的对话,并定时提醒用户他们正在与 AI 交流。

同时,OpenAI 还发布了面向家长的 AI 素养资源,提供了一些对话建议和指导。这体现了一种 与监护人分担责任 的策略,即将一部分监督责任转移给了家庭。这种做法与硅谷普遍倾向于“加强信息披露和家长责任”而非“实施严格限制”的观点相符。然而,这也引发了一个问题:许多为保护青少年而设的安全默认值,是否也应该适用于所有用户?