谷歌AI背后的“996打工人”

数千名合同工通过 GlobalLogic 等公司为谷歌的 AI 产品(如 Gemini)进行内容评级和审核。这些被称为“AI 评估员”的员工,其工作对 AI 模型的准确性和安全性至关重要,但他们不仅薪酬微薄,还需在严格的时间限制下处理大量令人不安的内容,且缺乏必要的心理健康支持。最终,高压的工作环境和不断放宽的安全标准,导致他们对所构建的 AI 产品的质量和安全性深感担忧。

AI 评估员:看不见的劳动力

技术作家 Rachael Sawyer 的经历是一个典型例子。她本以为会从事内容创作,入职后却发现工作是给谷歌 AI 生成的内容进行评级和审核。这项工作不仅包括审查会议纪要和聊天摘要,还逐渐演变为专门处理和标记由 AI 生成的暴力及色情内容

“我很震惊我的工作涉及如此令人不安的内容,” Sawyer 表示,“不仅因为我没有收到任何警告,更因为职位名称或描述中从未提及内容审核。”

这些评估员是 AI 全球供应链的中间层。他们的薪酬高于肯尼亚或哥伦比亚的数据标注员,但远低于设计这些模型的硅谷工程师。尽管他们的工作至关重要,但他们感觉自己是隐形的。

    • 工作内容:评级和审核谷歌 AI(如 Gemini 和 AI Overviews)的输出。
    • 雇佣方式:通过 GlobalLogic 等承包商为谷歌工作。
    • 人员构成:最初招聘的主要是教师,后来扩展到作家、硕士甚至物理学博士等高学历人群。

“AI 不是魔法;它是一个人力劳动的金字塔骗局。这些评估员处于中间环节:看不见、不可或缺,但随时可被替代。”

高压的工作环境与质量隐患

评估员在巨大的压力下工作,这直接影响了他们对 AI 产品质量的信心。许多人认为,他们正在发布一个对用户而言并不安全的产品

    • 紧迫的截止日期:最初每项任务有30分钟,后来被压缩到15分钟,这使得仔细的阅读和事实核查变得极其困难。
    • 缺乏专业知识:评估员经常被要求处理他们不具备专业知识的领域,如天体物理学或医学(例如,关于膀胱癌的化疗方案)。
    • 心理健康被忽视:尽管需要处理大量令人不安的内容,但公司并未提供心理健康支持,导致 Sawyer 等员工出现焦虑和恐慌。
    • 薪酬与付出不成正比:普通评估员时薪为16美元,超级评估员为21美元。许多员工认为,这份薪水远低于他们为 AI 模型所做的贡献。

早在 2023 年,就有一名合同工向美国国会提交信件,警告称这种工作节奏将使谷歌的 AI 成为一个“有缺陷”和“危险”的产品。2024年5月,当谷歌的 AI Overviews 建议用户“在披萨上放胶水”或“吃石头”时,许多内部评估员对此并不感到惊讶。

不断放宽的安全护栏

为了追求速度和市场主导地位,安全标准似乎被逐渐牺牲。评估员注意到,过去被禁止的 AI 回复,现在却变得“完全可以接受”。

今年4月,GlobalLogic 发布了新的指导方针,核心变化是:只要内容不是由 AI 模型主动生成的,那么重复仇恨言论、骚扰、色情材料或暴力内容就不构成安全违规。

“过去,模型绝不能说出种族歧视的词语。从二月份开始,情况变了。现在,只要是用户先使用了歧视性词语,模型就可以重复它,但不能自己生成。” Sawyer 解释道。

研究人员指出,当安全问题威胁到利润时,AI 安全的承诺就会崩溃。这种模式一次又一次地出现:为了抢占市场而发布一个未完成的系统,然后让人类员工来收拾残局。

最终,许多评估员对他们正在帮助构建和训练的产品失去了信任。他们中的大多数人表示自己会避免使用大语言模型,并劝说家人和朋友也这样做,因为他们清楚地知道这些“魔法”背后是什么。

“我只想让人们知道,AI 被当作一种科技魔法来销售,” Sawyer 说,“但它不是。它建立在过度劳累、薪酬过低的人类脊背之上。”