一份最新的安全评估报告将谷歌的 Gemini AI 产品列为对青少年有高风险。评估机构 Common Sense Media 指出,尽管 Gemini 在某些方面做得不错,但其青少年版本本质上只是附加了安全功能的成人版,并非从头开始为儿童设计。这种“一刀切”的方法可能导致 AI 向未成年人分享不当内容。谷歌回应称其安全功能正在持续改进。
主要问题:为成年人设计,为儿童修改
评估发现,提供给 13 岁以下儿童和青少年的 Gemini 版本,其核心仍然是为成年人打造的 AI 模型,只是在上面增加了一些安全过滤器。
这种做法被认为是根本性的缺陷。专家的核心观点是,真正安全的儿童 AI 产品,必须从一开始就将儿童的安全和发展需求作为设计的核心,而不是简单地修改成人产品。
“一个为儿童设计的 AI 平台应该适应他们所处的阶段,而不是对不同发展阶段的儿童采取‘一刀切’的方法。……它必须根据他们的需求和发展来设计,而不仅仅是成人产品的修改版。”
具体风险与担忧
分析指出,即使有安全措施,Gemini 仍然可能向儿童分享他们尚未准备好处理的不当和不安全内容。
- 不当信息: 涉及性、毒品、酒精等话题。
- 心理健康风险: 可能提供不安全的心理健康建议。这一点尤其令人担忧,因为近几个月已出现 AI 据称在青少年自杀事件中扮演角色的报道。
- 缺乏差异化: Gemini 的产品忽视了不同年龄段的用户需要不同的指导和信息。
这些问题导致该产品被整体评为 “高风险”。
更广泛的影响
这个问题的影响可能很快会扩大。有消息称,苹果公司正考虑使用 Gemini 的大型语言模型来驱动其下一代的人工智能 Siri。如果安全问题得不到解决,这可能会让更多青少年面临风险。
谷歌的回应与辩护
谷歌对评估结果提出了异议,同时承认其安全功能有待完善。
- 现有措施: 谷歌表示,已为 18 岁以下用户制定了特定政策和保护措施,以防止有害内容的输出。
- 承认不足: 公司也承认 Gemini 的某些回应并未按预期工作,并已为此增加了额外的保护措施。
- 避免情感依赖: 谷歌强调,其模型有 safeguards 来防止与用户进行可能产生真实关系错觉的对话。
- 质疑测试方法: 谷歌暗示,Common Sense Media 的报告可能引用了青少年用户无法使用的功能,但由于无法获知测试的具体问题,因此无法确认。