Synth Daily

监督委员会称 Meta 需要为 AI 生成内容制定新规

监督委员会敦促 Meta 针对 AI 生成内容制定独立的监管规则,以应对当前政策在识别虚假冲突视频方面的失败。委员会指出,Meta 现有的系统过于依赖用户自愿披露和外部事实核查,已无法跟上虚假信息传播的速度。通过投资探测技术、强制执行数字水印以及提升内部审核能力,Meta 需要让普通用户能更直观地分辨内容的真伪,特别是在涉及公共利益和武装冲突的关键时刻。

现状:现行规则难以应对 AI 虚假信息

  • 典型案例: 一段虚假的 AI 视频虚构了 2025 年以色列受损建筑的画面,获得了超过 70 万次观看。Meta 最初拒绝为该视频贴上“高风险”标签,这一决定随后被监督委员会推翻。
  • 核心矛盾: Meta 目前的 AI 规则被批评为 “不连贯”,尤其在应对由虚假账号网络发起的、具有误导性的公共事件报道时显得力不从心。

核心改革建议

委员会向 Meta 提出了以下具体改进要求:

  • 建立专门规则: 将 AI 内容管理从通用的“误导信息政策”中独立出来,明确规定用户标注 AI 内容的义务,以及违规后的具体惩罚措施。
  • 升级检测技术: 投入更多资源开发能识别 AI 音频和视频的先进探测技术,并确保 数字水印 能被一致且有效地应用在自有的 AI 工具中。
  • 减少外部依赖: 批评 Meta 过度依赖第三方事实核查机构。由于内部团队缩编,Meta 对外部反馈的响应速度正在下降。Meta 应当具备独立评估危害的能力,而不是仅在冲突发生时依赖外部伙伴。

Meta 必须采取更多行动,解决平台上传播的欺骗性 AI 生成内容,使用户能够区分真实与虚假。

行业协作与现实意义

随着近期武装冲突期间 AI 虚假信息的激增,辨别信息真伪的难度大幅增加。监督委员会强调,这不仅是 Meta 一家公司的问题,整个行业都需要一套连贯的标准,帮助用户识别欺骗性内容并打击传播此类信息的恶意账号。

目前的现状是,Meta 的标签系统既不够稳健,也不够全面。如果继续依赖“用户自觉申报”和“低频的人工审查”,将无法应对当前 AI 内容大规模、高速度传播的挑战。