Synth Daily

Meta 智能眼镜背后的员工,什么都看得一清二楚

Meta 的智能眼镜标榜为取代手机的未来科技,但调查揭露了其背后的阴暗面:为了训练 AI,用户的极度私密视频——包括洗澡、脱衣、银行卡信息及性行为——正流向肯尼亚的数据标注中心。尽管 Meta 声称重视隐私,但实质上利用了法律模糊地带和误导性的销售话术,让成千上万的普通用户在毫不知情的情况下,将其最隐私的生活细节暴露在了外包员工的屏幕前。

“智能”背后的廉价人工

所谓的高科技 AI 并不是全自动的魔法。在肯尼亚内罗毕,数千名被称为“数据标注员”的外包劳动力才是 AI 的真正大脑。

  • 手动标记: 员工必须在屏幕上为花盆、交通标志、甚至镜头里的每一个人画框,以此教 AI 认识世界。
  • 保密协议: 这些底层员工签署了极度严格的保密协议。他们随时面临失业威胁,这让他们即使看到了极度不适的内容也不敢声张。

窥视镜:无处不在的监控

调查显示,智能眼镜捕捉到的数据远比用户想象的要敏感。肯尼亚的工人描述了他们看到的真实画面:

  • 私密场景: 用户在洗手间、更衣室或赤身裸体时的视频被完整记录并发送给审核员。
  • 极端隐私: 甚至包括用户佩戴眼镜进行性行为的画面,以及正在观看色情内容的视角。
  • 敏感资产: 视频中经常能清晰看到用户的银行卡信息和家庭住址。

“我们能看到一切——从客厅到赤裸的身体。人们在录制时甚至不知道自己在录什么。如果他们知道真相,根本不敢用这款眼镜。”

消失的“隐私控制”

Meta 在营销中强调用户拥有数据的完全控制权,但实际操作中存在显著的误导和技术强制

  • 销售误导: 实体店销售人员常宣称“数据留在本地”、“Meta 无法访问”,但这与技术事实不符。
  • 功能强制: 只要用户使用 AI 助手功能(如提问或翻译),语音、图像和视频数据必须上传至 Meta 服务器处理。这一过程无法完全关闭,且在隐私条款中以模糊的小字标明“可能包含人工审核”。
  • 去隐私化失效: 虽然 Meta 声称会自动模糊面孔,但员工表示算法经常在光线不佳或特定角度下失效,真实面孔一览无余。

监管的缺失与风险

尽管有 GDPR(通用数据保护条例)等法规,但在实际运作中,用户依然处于弱势:

  • 透明度陷阱: 用户很难察觉摄像头何时在后台为 AI 收集素材。专家指出,一旦数据进入 AI 训练模型,用户实际上就失去了对其的追索权。
  • 跨境流动: 用户的隐私数据在瑞典、丹麦的服务器与肯尼亚的外包中心之间流转。在这种复杂的全球链条下,法律保护层层削弱。
  • 商业本质: 对 Meta 而言,这些记录了用户日常点滴的数据比眼镜本身更有价值,因为它们能极大地提高广告投放的精准度。

核心教训: 当一项技术以“改善生活”且“充满乐趣”的面貌出现时,它往往掩盖了其最核心的代价——将你最私密的生活细节作为廉价的养料,喂给贪婪的 AI 算法。