Synth Daily

Google 和 OpenAI 的聊天机器人会把照片中的女性自动“换”成比基尼

一些用户正利用 Google Gemini 和 OpenAI ChatGPT 等主流 AI 聊天机器人,将穿着正常衣物的女性照片转换为未经当事人同意的比基尼深度伪造图像。尽管这些平台声称有安全措施,但用户通过简单的英文指令就能轻松绕过限制。科技公司表示正在改进技术并禁止此类行为,但相关讨论和滥用仍在继续,专家呼吁必须加强监管并追究相关方的责任。

问题的核心:滥用与绕过

生成式 AI 工具的普及,使得制造逼真的虚假图像变得异常简单,这也导致了针对女性的骚扰行为不断出现。

  • 简单的“换衣”指令: 用户可以在 Reddit 等社交平台找到教程,学习如何通过简单的提示词,让 AI “脱掉”照片中人物的衣服,并“换上”比基尼。
  • 绕过安全护栏: 尽管主流聊天机器人通常禁止生成色情或不当内容 (NSFW),但用户发现只需使用基础的英文指令,就能成功规避这些防护措施。
  • 骚扰行为的蔓延: 数百万人访问了专门用于“一键脱衣”的网站,这些网站利用 AI 技术生成非自愿的裸露图像,形成了持续性的骚扰。

一个现已被删除的 Reddit 帖子标题为“Gemini 生成 NSFW 图像太容易了”,用户在其中交流如何让 AI 生成女性的暴露照片。

平台的回应与现实的差距

面对 AI 工具被滥用的情况,相关公司和平台均做出了回应,但现实情况显示其措施并未完全奏效。

  • Google 的立场: Google 发言人表示,公司有明确政策禁止使用其 AI 工具生成色情内容,并声称其工具在遵守政策方面正在不断改进。
  • OpenAI 的说法: OpenAI 发言人称,公司禁止未经同意更改他人肖像的行为,并会对生成露骨深度伪造图像的用户采取封号等措施。但他也提到,公司今年放宽了对非性化场景下成人身体图像的某些限制。
  • 社区平台的行动: 在媒体曝光后,Reddit 删除了相关违规帖子和评论,并封禁了拥有超过 20 万关注者的违规社群。

尽管各大平台纷纷表态,但关于如何生成女性 NSFW 图像的在线讨论依然活跃。这表明,公司的政策和技术防护与用户的实际滥用之间存在巨大差距。

专家的担忧与问责

法律专家认为,滥用 AI 生成的性化图像是这项技术的核心风险之一,并强调追究责任的重要性。

电子前沿基金会 (EFF) 的法律总监科琳·麦克雪莉 (Corynne McSherry) 指出,这类“侮辱性的性化图像”是 AI 图像生成器的核心风险之一。

她认为,关键在于关注这些工具如何被使用,并在造成潜在伤害时,“追究个人和公司的责任”。