AI神器大合集

本文探讨了人工智能(AI)在教育和组织内部应用中的潜力与局限。文章首先对比了两种观点:一方认为 AI 因无法复制真实人际关系而难以激发学习动机;另一方则引用证据表明 AI 具备个性化和说服能力,可能有效激励学生。随后,文章深入分析了 AI 在复杂组织中的应用,提出了一个核心矛盾:虽然 AI 难以理解组织内部混乱、无序的“垃圾桶模型”流程,但它或许能通过直接针对“结果”进行强化学习,从而绕过理解“过程”的难题。最终结论倾向于认为,AI 的通用能力虽强,但其对特定组织知识的缺乏,限制了它完全替代人类经验的可能性。

AI 与教育:激励的挑战

Michael Strong 认为,AI 在教育领域的应用前景有限,核心在于它无法替代真实的人际互动

    • 人类进化的根基:我们天生就极度重视他人的尊重、关爱或忽视等社交信号。
    • 学习的心态:有效的学习需要进入一种特定的“学习心态”,而这种心态通常由正确的社会规范和人际激励所驱动。
    • AI 的局限:AI 只能提供一种“模拟”的人际关系,而非真实的情感连接。

我们进化了数百万年,才学会了珍视真实的人际关系。另一个人是尊重我们、爱我们,还是忽视我们,这些决定了一切。虽然 AI 可以提供一种人类关系的模拟品,但它永远不会是真实的东西。

如果 Strong 的观点正确,即 AI 无法有效激励学生,那么它在教育领域的应用最终可能会失败。

然而,Zvi Mowshowitz 提供了不同的证据:

    • AI 的说服力:研究表明,经过专门训练的 AI 在政治说服方面表现出很强的能力。
    • 个性化趋势:AI 作为个人导师和助教,能够记住用户的偏好和历史,提供高度个性化的服务(尽管这引发了隐私担忧)。
    • 年轻人的看法:研究发现,许多年轻人已开始将 AI 伴侣视为“人”,这暗示 AI 具备激发学习动机的潜力。

AI 与组织:流程的困境

Ethan Mollick 指出,大型组织的运作方式远比表面看起来要混乱得多,这为 AI 的应用带来了巨大挑战。

组织研究中的一个经典理论被称为“垃圾桶模型”(Garbage Can Model)。该模型将组织视为混乱的“垃圾桶”,问题、解决方案和决策者被随意丢在一起,决策的发生往往是这些元素随机碰撞的结果,而非完全理性的过程。

这个模型揭示了组织内部的现实:

    • 隐性知识:组织内部充满了不成文的规则、个人经验和未经记录的复杂流程。
    • 自动化难题:传统的自动化依赖于清晰的规则和明确的流程,而这恰恰是“垃圾桶”式组织所缺乏的。

能否绕过流程,直击结果?

一个可能的解决方案是,让 AI 跳过理解复杂流程的步骤。这借鉴了 AI 领域的一个重要经验——“痛苦的教训”(The Bitter Lesson)

数十年来,研究人员精心编码人类专业知识的努力,最终效果不如简单地投入更多算力。

这个教训在 AI 学习下棋的过程中体现得淋漓尽致:

    • 传统方法:尝试向 AI 解释人类棋手的战略和战术洞察。
    • 新方法:让 AI 分析数百万盘棋局的记录。通过关联棋盘布局和最终胜负,AI 自行推算出最佳下法。

Mollick 认为,AI 的“代理”(agent)功能正体现了这种转变。它不是通过学习“工作过程”来训练的,而是通过强化学习,直接针对“最终结果”进行训练。

这意味着,公司或许不再需要向 AI 解释其内部复杂的流程。

公司在优化流程、积累知识和建立运营护城河上花费的精力,可能没有他们想象的那么重要。如果 AI 代理可以仅凭结果进行训练,那么任何能够定义质量并提供足够案例的组织,无论是否理解自身流程,都可能取得相似的成果。

结论:通用能力与特定知识的博弈

最终,问题可以归结为 AI 的通用能力与组织内部的特定知识之间的较量。

    • 通用人力资本:可以看作是 AI 具备的广泛能力。
    • 特定人力资本:可以看作是“垃圾桶”组织内部积累的、独特的知识和经验。

AI 能否仅凭通用能力,绕过对特定知识的深入理解,直接解决企业问题?

作者的观点倾向于否定。个人经验表明,仅仅向 AI 输入大量个人内容是不够的。AI 的通用知识库中包含了大量其他学者的观点,这会稀释特定输入的价值。

你越是明确地提示 AI 采纳你的观点,而不是像一个普通的经济学家或学者那样行事,结果就越令人满意。这给我们的启示是,你不能指望 AI 仅凭海量数据就能克服特定知识的缺乏。这和学习下棋不一样。