这篇文章探讨了企业组织的内在混乱与人工智能(AI)未来应用的潜在冲突。通过引用“垃圾桶模型”,它指出大多数组织的运作方式是随机且难以预测的,这使得传统自动化难以实施。然而,AI 领域的“苦涩教训”表明,依赖海量计算和自我学习的通用方法,往往胜过精心编码的人类知识。文章对比了两种 AI 代理:一种是基于人类经验手工设计的,另一种则是通过强化学习、只关注最终结果来训练的。结论是,如果“苦涩教训”适用于商业领域,企业或许无需梳理其复杂流程,只需定义好目标,让 AI 自主寻找解决方案。这最终将揭示,组织本质上是一个可通过计算解决的“棋局”,还是一个更复杂、无法被轻易简化的“垃圾桶”。
组织的真实面貌:一个“垃圾桶”
许多人认为组织是精心设计的机器,但现实往往截然相反。在一个案例中,一个团队试图绘制公司的实际工作流程图,结果发现大量奇怪、无计划且重复的工作。
- 他们发现了产出物无人问津的完整流程。
- 他们找到了各种奇怪的、非官方的办事途径。
- 他们目睹了大量重复性的劳动。
当团队向 CEO 展示这张流程图时,他看到了一个自己从未见过的、战略与运营完全脱节的混乱系统。这位 CEO 的反应说明了一个普遍事实:
这位 CEO 坦言,他不仅无法控制公司的运营,甚至连他对运营的理解都是凭空想象的。
这种混乱现象可以用一个经典的组织理论来解释,即 “垃圾桶模型” (Garbage Can Model)。该模型将组织视为一个混乱的“垃圾桶”,其中问题、解决方案和决策者被随意地扔在一起。决策的产生,往往是这些元素随机碰撞的结果,而非源于一个完全理性的过程。
这种依赖潜规则和复杂不成文流程的“垃圾桶”环境,正是企业大规模应用 AI 的主要障碍。因为传统的自动化系统需要清晰的规则和已定义的流程,而这恰恰是“垃圾桶”式组织所缺乏的。
来自人工智能的“苦涩教训”
然而,AI 的发展历史提供了一个截然不同的视角,计算机科学家理查德·萨顿将其总结为 “苦涩教训” (The Bitter Lesson)。
这个教训指出,在解决复杂问题(如国际象棋)时,AI 研究人员最初尝试将人类数百年的智慧和策略(如控制中心、国王安全等)编写成代码。但最终,真正取得突破的是那些摒弃人类知识、依赖纯粹计算能力和通用学习方法(如自我对弈)的系统。
“苦涩教训”的核心在于:试图将人类的理解编码到 AI 中,其效果往往不如直接让 AI 利用强大的计算能力来自行寻找解决方案。
这意味着我们花费毕生精力积累的经验和知识,在 AI 面前可能并非那么重要。相比于研究人员精心构建的专家系统,简单粗暴地增加算力,效果反而更好。
AI 代理的两种实现路径
如今,我们正在见证“苦涩教训”是否适用于更广泛的工作领域,尤其是在 AI 代理 (Agent) 的开发上。AI 代理是指能够自主采取行动以完成目标的系统。目前存在两种截然不同的构建思路:
- 手工精心设计: 这种方法依赖开发者精心编写的指令和规则,将人类解决问题的经验和技巧(例如先列待办清单,再分步执行)硬编码到系统中。这就像早期需要人类棋谱知识的象棋程序。
- 基于结果的训练: 这种方法不关心过程,而是使用强化学习来训练 AI。系统只根据最终产出的质量获得奖励或惩罚,AI 会自行探索达成目标的“神秘路径”。这与 AlphaZero 的自我学习方式如出一辙。
最近的例子表明,基于结果训练的 AI 代理(如新版 ChatGPT 代理)可能进步更快。要改进手工设计的代理,需要更多精巧的工程和定制化工作;而要改进结果导向的代理,只需要更多的计算芯片和训练案例。
AI 将如何应对“垃圾桶”?
这让我们回到了最初的组织问题。企业花费数月时间试图理清其混乱的流程,然后才部署 AI。但“苦涩教训”暗示,这种做法可能完全是本末倒置。
与其费力地解开每一个混乱的流程,或许只需要定义什么是成功,然后让 AI 自己去驾驭这种混乱。
如果这个思路成立,那么“垃圾桶”本身可能不再是个问题。公司无需梳理那些不成文的工作流程和非正式的沟通网络。真正重要的是定义清楚什么是高质量的产出。
- 如果“苦涩教训”适用: 竞争优势将被重新定义。企业通过优化流程和积累知识所建立的护城河,其重要性可能会下降。任何能够定义质量并提供足够训练数据的组织,都可能获得相似的运营能力。
- 如果“垃圾桶”理论胜出: 这意味着人类组织的复杂性、那些混乱且不断演化的流程,对于无法真正理解它们的 AI 来说过于错综复杂。
我们即将发现,组织究竟是哪一种问题:是一个可以通过大规模计算来解决的棋局,还是一个本质上更混乱、更棘手的东西。