知名科技媒体 Ars Technica 最近解雇了其资深 AI 记者 Benj Edwards,原因是他在一篇报道中使用了由 AI 虚构的采访引言。这起事件不仅是个人的职业失误,更暴露了现代新闻业在追求效率时,由于人工审核机制缺失与过度依赖 AI 工具所导致的结构性风险。
核心事件:AI 虚构引言引发的解雇
Ars Technica 撤回了一篇关于 AI 代理攻击人类工程师的报道,并确认文中引用的多段话语均为 AI 捏造。
- 造假细节:文中引用的受访者 Scott Shambaugh 指出,他从未说过报道中归于其名下的那些话。
- 官方致歉:总编辑 Ken Fisher 承认这是一次“严重的标准失灵”,确认文章包含了由 AI 工具生成并错误归类为真实引言的内容。
- 处理结果:涉事资深记者 Benj Edwards 被直接解雇,此前他曾在该领域深耕多年。
记者辩解:是提取工具而非故意造假
Benj Edwards 解释称,他的本意并非让 AI 编造内容,而是将其作为素材处理工具。
“我决定尝试一种基于 Claude Code 的 AI 工具,帮我从原始素材中提取相关的逐字引用……结果我得到的却是经过 AI 转述的版本,而非他的原话。”
Edwards 表示,由于当时处于患病状态且急于完成稿件,他未能将 AI 整理的笔记与原始博客素材进行核对,最终导致虚假信息直接进入了发布稿。
行业反思:新闻业的安全机制正在坍塌
评论指出,这起事件实际上是一场典型的“系统性故障”,类似于工业事故的发生逻辑:
- 编辑层级削减:过去十年,新闻编辑部不断裁员,曾经负责抓漏的事实核查员、副主编和资深编辑大多已不复存在。
- 风险与效率失调:媒体在没有增加监督能力的情况下,引入了提高产出的 AI 工具,这相当于拆除了安全装置却增加了运行风险。
- 名不副实的信任:许多媒体品牌仍然享有公众的信任,但其内部的验证流程已经名存实亡。
核心洞见:AI 提取信息的不可靠性
很多人像 Edwards 一样,将 AI 用于信息提取或整理。然而,这正是风险所在:
- AI 的“幻觉”本能:大语言模型在处理表格、提取摘要或整理引用时,极易产生偏差或凭空捏造。
- 缺乏测试环境:代码可以运行测试,但表格中的数字或引号内的文字很难一眼看出来源。
- 结论:在没有原始出处直接比对的情况下,任何经过 AI “蒸馏”或重组的信息都不应被视为准确的事实。