利用人工智能来识别情绪、专注度和态度的“情感AI”正迅速进入工作场所。企业将其包装为提升效率、安全和心理健康的工具,但这类技术不仅因其频繁的误判和偏见而备受诟病,更无法准确理解复杂的人类情感和语境。这种技术加剧了对员工的监视与压迫,可能使工作进一步异化为“表演快乐”。其核心问题不在于技术能否变得更“聪明”,而在于我们是否愿意接受这种无处不在、由AI驱动的劳动控制。
什么是情感AI?
情感AI(Emotion AI),或称情感计算,是指利用人工智能来分析和解读人类情感的技术。它正通过各种软件和服务渗透到我们的工作与生活中。
- 会议分析: 类似 MorphCast 的应用可以通过摄像头分析会议参与者的情绪,实时评估他们的“积极性”、“专注度”和“兴趣”。
- 商业应用: 麦当劳曾用它扫描用户面部,根据(推测的)心情提供优惠券。
- 多渠道分析: 这类技术可以通过分析会议视频、面试录音、聊天记录或电子邮件,生成关于员工情绪的报告。
“坏消息是,现在有软件声称能用AI洞察人类情感的深邃与变幻,而且它正向你走来,准备监视你。”
从蓝领到白领的渗透
情感AI的应用遵循了作家科里·多克托罗所说的“劣质技术采用曲线”:这些榨取式技术首先被用于处境不稳定的人群(如低薪工作),然后逐步完善并推广到权力更大的人群中。
第一步:蓝领和客服
- 呼叫中心: 保险巨头 MetLife 等公司使用软件监控坐席的音调和音高,以评估服务质量。
- 货运业: 卡车公司使用眼球追踪器、高灵敏度录音设备甚至脑电波扫描仪,来监测司机的疲劳或困扰迹象。
- 快餐业: 汉堡王正在试用一款名为 Patty 的AI聊天机器人,嵌入员工耳机中,评估他们与顾客互动时的友好度。
第二步:白领工作
- 内部沟通: Slack 的插件 Aware 可以持续监控消息中的“情绪和毒性”。微软的 Azure 也可以批量分析员工的聊天记录。
- 招聘面试: Imentiv 等公司建议在面试中应用情感分析,向雇主承诺提供候选人情绪参与度、强度和性格类型的详细报告。
- 办公环境: Framery 公司在其隔音电话亭的椅子上测试安装生物传感器,用以测量心率、呼吸频率和紧张程度。
监视技术为何兴起?
多种技术、文化和经济因素的共同作用,为大规模的员工监视创造了条件。
- 现实的限制被打破: 过去,虽然雇主有权监控,但分析海量数据的成本和难度使其不切实际。如今,“AI驱动的系统现在可以分析100%的互动,而不是传统方法中1-3%的样本量”。
- 文化与经济背景: 远程工作的普及、劳资信任度的下降,以及AI对就业市场的冲击,都让雇主更倾向于使用技术手段进行管理。
- “人力分析”的崛起: 人力资源这门曾经定性的学科,正在转变为依赖数据的“人力分析”。
- 隐私虚无主义: 许多人已经默认自己的数据正在被收集和利用,即使他们不愿多想。
不仅是伪科学,更是偏见放大器
尽管情感AI被包装成各种有用的工具,但其核心问题在于——它们根本无法准确完成声称的任务。
神经科学家兼心理学家丽莎·费尔德曼·巴雷特指出:“你的动作……无论是在脸上、身体上还是你发出的声音,本身都没有内在的情感意义。它们具有的是关系意义。”
- 生产力误判: 键盘追踪器无法区分无意义的打字和专注的知识生产。在联合健康集团,一个监控程序会因为社工的键盘不活跃而扣分,尽管他们不活跃的真实原因是在与患者进行咨询。
- 简化的情感理论: 许多产品基于心理学家保罗·埃克曼的六种基本情绪理论,但这一理论早已因过于简单化和方法论缺陷而受到广泛质疑。
- 语境的缺失: 巴雷特的研究表明,在美国,人们生气时皱眉的比例约为35%。这意味着如果你只寻找皱眉,你会错过65%的愤怒情况。而一半的皱眉情况,当事人根本没有生气。
- 偏见的复制: AI会复制其训练数据中的偏见。一项研究发现,情绪识别AI认为黑人NBA球员比白人队友更愤怒——即使他们正在微笑。
真正的担忧:如果它变得“更好”了呢?
关于情感AI的讨论通常集中在其技术缺陷上,但更深层的担忧恰恰相反:如果这项技术变得足够准确,那又会怎样?
“我开始担心的恰恰相反:一个我的收件箱和Zoom账户里嵌入的机器人,能够真正说出一些关于我情绪状态的有意义且真实的话的世界;一个除了我的本职工作外,我还要努力让情感机器人认为我足够开心的世界。”
这种担忧揭示了一个更根本的问题。在货运行业,强制性的电子监控并未减少事故,反而增加了司机的压力,侵蚀了他们的自主权和职业自豪感。这不仅仅是数据和效率的问题,更是一个关乎尊严的问题。当我们的每一个无意识的面部表情都可能影响我们养家糊口的能力时,工作的本质就被扭曲了。
我们可能被一个认为我们“性格不错”的AI所取悦,但最终,我们宁愿它根本不认识我们。