利用社交媒体照片和“nudify”深度伪造技术,全球多国中学生正在制作并传播同学的虚假裸照,构成严重的性侵害。这一现象自2023年以来已在至少28个国家的约90所学校发生,影响超600名学生,实际数字可能更高。这些事件给受害者带来巨大的心理创伤,而学校和执法部门普遍缺乏应对能力。目前,部分国家和社区已开始采取行动,通过修改法律、加强教育和改变校内政策来应对这一日益严峻的校园危机。
一场全球性的校园危机
深度伪造的性虐待事件正以前所未有的规模冲击全球校园。分析显示,自2023年以来,至少有28个国家的青少年被指控使用生成式AI技术,将同学的照片制作成露骨的虚假图像。
- 影响范围广: 已公开报道的事件涉及约 90所学校 和超过 600名学生。
- 数据可能被低估: 许多事件从未被报道。联合国儿童基金会(Unicef)的一项调查估计,去年有120万儿童的性深度伪造图像被制作出来。
- 普遍现象: 加拿大儿童保护中心的技术总监表示:“你很难找到一所完全不受此影响的学校。”
- 作案模式清晰: 在几乎所有案例中,制作和传播图像的都是十几岁的男孩,他们通常通过社交应用或即时消息在同学间分享这些内容。
对受害者的严重心理伤害
这些伪造的裸照一旦在学校传播,会给受害者带来毁灭性的打击,使她们感到羞辱、被侵犯、绝望和恐惧。这种伤害是长期且深远的。
“我很担心,他们每次看到我的时候,脑子里看到的都是那些照片。”
一名受害者的家人描述道:“她一直在哭,吃不下饭。” 另一名受害者的律师表示,她知道这些图片可能会流向互联网并被恋童癖者获取,这让她感到极度痛苦。
- 逃避现实: 许多受害者不愿再去学校,害怕面对制作或看过这些图像的人。
- 终身阴影: 受害者感到无助,因为她们知道这些图像可能永远存在于网络上,她们将不得不 终生监控互联网 以防止其传播。
技术是催化剂,根源是文化
深度伪造色情内容自2017年左右就已存在,但生成式AI的普及极大地降低了作恶的门槛。任何人,无论是否具备技术知识,都能通过简单的点击创建这些图像。
“AI改变的是规模、速度和可及性。技术门槛已显著降低,这意味着包括青少年在内的更多人可以用最少的努力制作出更逼真的内容。”
动机也多种多样,不完全是出于性满足。研究表明,作案动机可能包括:
- 性冲动或好奇心
- 报复或欺凌
- 同学间的起哄和攀比
- 羞辱、贬低和社交控制
一位研究性别暴力的教授指出:“这不仅仅是技术问题,更关乎长期以来助长这些犯罪的性别动态。”
回应迟缓且不力
面对这一新兴危机,学校和执法机构的反应往往迟缓且不一致,这让受害者及其家人感到更加无助。
- 行动迟缓: 在一个案例中,学校花了三天才向警方报案。
- 缺乏后果: 一名受害者称,肇事者没有受到任何立即的惩罚。
- 处理方式不一: 有些学生因制作和持有儿童性虐待材料(CSAM)而面临重罪指控,而另一些学生仅受到停学处分。
反击与变革的开始
尽管官方反应迟缓,但学生、家长和社区已经开始行动起来,推动变革。
- 学生抗议: 学生们通过罢课来声援受害者,并抗议学校对肇事者的不作为。
- 法律推动: 青少年积极参与推动立法,例如《Take It Down Act》,该法案要求科技平台在48小时内删除未经同意的私密图像。
- 学校政策调整: 韩国和澳大利亚的一些学校已停止在年鉴或社交媒体上发布学生正面照片,以防止其被滥用。
- 加强教育: 专家呼吁对学校进行系统性培训,内容包括教育学生制作深度伪造图像的危害和违法性,以及帮助管理者进行数字取证和危机准备。
“当孩子们鼓起勇气说出遭遇时,如果成年人的回应完全不当,会严重影响他们的康复,也会让他们在未来再次遇到问题时选择沉默。”
深度伪造的风险远不止于此。教师也同样成为目标,被学生制作成露骨或侮辱性的虚假视频。这表明,学校在应对AI带来的各种威胁时,普遍准备不足。