Synth Daily

AI 与自动化的反讽——第二部分

本文探讨了将历史悠久的自动化原则应用于现代人工智能(AI)时出现的讽刺现象。核心观点指出,尽管自动化旨在减轻人类负担,但它反而带来了新的认知挑战,尤其是在人机协作方面。文章分析了当前 AI 代理在界面设计上的缺陷,指出了在罕见故障面前存在的“培训悖论”,并强调监督 AI 不仅仅是被动监控,更需要主动的领导技能。结论认为,解决这些由自动化引发的新问题,需要比创造自动化本身更高的技术和管理智慧。

工业与AI自动化的异同

将1983年关于工业自动化的论文应用于今天的白领工作 AI 自动化,看似有些牵强。工业场景中的故障可能在几秒钟内导致灾难,因此对操作员的即时反应要求极高。

然而,AI 自动化环境下的压力同样不容忽视:

  • 对效率的痴迷: 公司期望 AI 带来超人般的工作效率。这意味着负责监督的人类也必须以超人的速度理解和审查 AI 的产出,否则效率将退回人类水平。
  • 高压工作文化: 压力会触发人类的“战斗或逃跑”本能,大幅削弱深度分析能力。这使得在紧张条件下发现 AI 的深层错误变得极其困难。

因此,尽管场景不同,但在这两种自动化中,人类都面临着在压力下快速决策的挑战。一个被忽略的 AI 错误同样可能导致严重后果,这使得两者之间的处境比想象中更为相似。

为何说当下的AI界面是“最差设计”

Lisanne Bainbridge 的论文提出了一个关键建议:

在任何需要快速注意到低概率事件的情况下,操作员都必须得到人为的辅助,必要时甚至需要警报之上的警报。

这一原则源于 “监控疲劳” 问题——长时间监控一个很少出错的系统,会使人的警惕性下降。

然而,当前 AI 代理的交互方式与此背道而驰。通常,AI 代理会生成一个充满自信、长达数百行的行动计划。人类监督者需要审查这个计划,以防 AI 犯错。

  • 问题所在: 大多数时候计划是正确的,但错误一旦出现,往往被巧妙地隐藏在大量文本中。
  • 结果: 由于信息过载和 AI 看似完美的自信语气,人类很容易忽略隐藏的错误,最终导致严重问题。

这种充斥着冗长文本的界面,对于一个需要发现偶发性错误的人来说,可能是最糟糕的用户界面和体验。未来的 AI 界面设计亟需改进,或许可以从工业控制站的设计中汲取灵感。

培训悖论:越成功,越需要投入

自动化系统中的人类操作员需要持续的培训,以应对突发状况。但这里存在一个深刻的悖论。

未知的故障无法在模拟器中演练,而对于那些可预测但从未发生过的故障,系统会如何表现也是未知的。

这意味着培训的重点必须是 通用的解决策略,而不是针对特定问题的具体反应。然而,我们又不能指望操作员仅靠操作手册来应对所有未知情况,因为他们存在的意义恰恰是填补规则的空白,提供智慧。

这就引出了一个讽刺的结论:

训练操作员遵循指令,然后又将他们放入系统中去提供智慧,这本身就是一种讽刺。

这个悖论在 AI 时代变得更加尖锐。随着 AI 代理越来越专业和精确,需要人类干预的往往是那些最意想不到的、最棘手的异常情况。最终的讽刺是:最成功的自动化系统,因为极少需要人工干预,反而最需要对人类操作员进行昂贵的培训投资

领导力困境:监督AI是一种全新技能

除了被动监控和干预,与 AI 代理协作还需要一项全新的能力:主动领导

目前的状况是,我们不能只是看着 AI 工作,然后在它出错时介入。我们必须主动地指导它们,设定方向和约束。这本质上是一种领导角色,需要告诉代理做什么、不做什么,以及如何协同工作。

  • 技能缺口: 这是一种大多数人并不具备的技能。通常,人们习惯于直接执行任务,而非通过间接指令来完成工作。
  • 普遍的误解: 当人们在指挥 AI 时遇到困难,通常得到的建议是“你需要更好的提示词”。但这远远不够,问题的核心在于人们需要彻底改变工作方式,学会如何 间接领导

有趣的是,许多管理者能很自然地驾驭 AI 代理,因为这与他们日常领导团队的工作非常相似。但对于普通员工来说,这是一种需要系统性培训才能掌握的全新能力。

总而言之,自动化并非简单地消除了困难,而是将它们转变成了更复杂的人机协作挑战。正如 Bainbridge 所说,解决这些挑战需要的智慧和创造力,可能要比实现自动化本身更高。