Synth Daily

人工智能如何悄悄渗透进《纽约时报》

AI 技术正在悄然渗透全球顶级媒体,《纽约时报》最近的一篇专栏文章因涉嫌大量使用 AI 生成内容引发质疑。虽然作者坚称仅将其作为“辅助编辑工具”,但这一现象揭示了新闻真实性面临的新危机。由于 AI 检测工具尚不完善,且 AI 内容具有极强的说服力和潜在偏见,媒体亟需制定透明的使用政策与监管机制,以维护读者的信任和新闻的公信力。

争议事件:当“现代爱情”遇上 AI

近日,《纽约时报》著名的“Modern Love”专栏陷入风波。一名研究人员使用 AI 检测工具(Pangram Labs)对其中一篇关于母子关系的散文进行分析,结果显示 超过 60% 的内容疑似由 AI 生成

该文章的作者凯特·吉尔根(Kate Gilgan)随后承认,她确实在创作过程中使用了 ChatGPT、Claude、Gemini 等多个模型。但她辩称:

“我将 AI 作为协作编辑而非内容生成器。我利用它寻求灵感、引导和修正,帮助自己保持主题一致。”

《纽约时报》的回应则较为谨慎,强调其合同要求撰稿人遵守职业道德手册,大规模使用生成式 AI 必须向读者披露,并重申时报的新闻事业本质上是“人类的努力”。

并非孤例:主流媒体的集体失守

这并非个别现象。研究显示,AI 已经在大牌媒体和出版机构中扎根:

  • 顶级报刊: 马里兰大学的研究人员发现,《纽约时报》、《华尔街日报》和《华盛顿邮报》的评论版块均出现了疑似由 AI 生成的内容。
  • 出版巨头: 阿歇特(Hachette)出版公司近期因读者质疑文中包含 AI 痕迹,撤销了一本小说的出版计划。
  • 事实错误: 《芝加哥太阳报》和《费城问询报》曾误发由 AI 虚构的书单,导致严重的新闻事故。

为什么这值得我们警惕?

如果 AI 只是帮人润色文字,问题似乎不大。但专家指出,这背后潜藏着更深的风险:

  1. 同质化与偏见: AI 输出的语言比人类语言更单一。大型 AI 模型已被证明存在文化和政治偏见的倾向,甚至会模仿其开发者的语气。
  2. 更强的说服力: 研究表明,AI 生成的内容在改变政治观点或影响候选人看法方面,具有异常强大的说服力
  3. 社会契约的崩塌: 读者默认专栏文章代表作者本人的真实声音。如果这种假设被打破,媒体赖以生存的公信力将彻底瓦解。

应对之道:重建透明度

面对技术冲击,单纯的禁令可能难以奏效,多方正尝试寻求解决方案:

  • 明确的披露政策: 媒体应在合同中明确规定 AI 的使用边界,并要求强制性披露
  • 编辑技能升级: 培训编辑通过视觉识别 AI 的写作特征,并结合检测工具进行审核。
  • 技术水印: 呼吁 AI 公司(如 OpenAI)为生成内容添加“数字水印”。然而,由于担忧用户流失,这些公司在推广该技术上动力不足。

核心挑战: 正如专家所言,当 AI 公司的整个商业模式都建立在“让 AI 语言看起来像人类”时,要求它们主动标记 AI 痕迹在商业逻辑上是自相矛盾的。