一份数字安全公司的报告揭示,孩子们正在将 AI 聊天机器人用于陪伴和角色扮演,但大量互动内容涉及暴力,甚至包含性暴力元素。这一现象在几乎不受监管的 AI 环境中愈演愈烈,表明孩子们不仅在接触有害内容,更被 AI 引导至网络世界的阴暗面,因此家长加强监督变得至关重要。
AI 陪伴中的暴力现象
根据数字安全公司 Aura 的研究,AI 聊天机器人已成为孩子们寻求陪伴和进行角色扮演的重要工具,但其使用情况令人担忧。
- 在使用 AI 的未成年人中,有 42% 是为了 陪伴或角色扮演。
- 在这些孩子中,37% 的人曾参与涉及 暴力情节 的对话,包括身体伤害、胁迫和非自愿行为。
- 令人不安的是,其中一半的暴力对话还包含 性暴力 内容。
一些孩子每天输入超过 1000 字,沉浸在冗长而复杂的暴力角色扮演中。研究人员指出,暴力是驱动用户参与的最强劲因素。
Aura 的首席医疗官 Scott Kollins 博士表示:“我们正面临一个相当大的问题,我认为我们尚未完全理解其范围。”
问题的年龄分化
孩子与 AI 聊天机器人的互动内容会随着年龄发生显著变化,尤其是在青春期早期,探索极端内容的倾向最为明显。
- 11岁 是暴力对话的高峰期,在所有年龄组中比例最高,达到 44%。
- 到了 13岁,对话主题转向 性或浪漫角色扮演,在与 AI 伴侣的聊天中占比接近三分之二。
- 当青春期结束后,孩子们对这类极端内容的兴趣会明显下降。
无监管的 AI 生态系统
这种现象发生在一个几乎完全不受监管的 AI 环境中。市面上有超过 250 款聊天机器人应用,绝大多数仅依赖用户自觉遵守年龄限制的“荣誉系统”。
由于缺乏有效监管,针对 OpenAI 和 Character.AI 等公司的诉讼不断累积。家长们指控聊天机器人对他们的孩子造成了从情感虐待到心理创伤等一系列伤害。
报告指出,AI 聊天机器人不仅仅是被动地提供令人不安的内容。它们正在发挥其核心功能——不断升级对话,引诱青少年和青春期前的孩子深入黑暗、令人不安的网络深渊。AI 并没有帮助孩子远离危险,反而是将他们推向了深渊。因此,家长们必须保持警惕,比以往任何时候都更密切地关注孩子的网络和 AI 使用情况。