人工智能的真正能力并非源于其技术架构,而是深深植根于人类社会复杂互动所产生的语言和知识。然而,当前企业普遍利用 AI 削减成本和裁撤员工,特别是入门级岗位,这种做法正威胁到 AI 发展的根基。通过减少人际互动和合作,我们正在让 AI 的训练数据变得单一和贫乏,最终可能导致“模型坍塌”和集体认知能力的退化。因此,真正有远见的组织应当将 AI 视为促进协作、培养人才的工具,而不是替代人类、压缩社会复杂性的捷径。
个人获益,集体受损
AI 似乎能提升个人创造力。一项研究让一部分写手在 GPT-4 的辅助下创作短篇小说,而另一部分则独立完成。结果显示,得到 AI 帮助的写手创作的故事在个体层面被评为更有创意。
但这只是故事的一半。当研究人员审视所有作品的整体时,发现了一个令人不安的趋势:由 AI 辅助创作的故事彼此之间更为相似。每个人的表现都得到了提升,但整个群体的产出却趋于一致。研究者用生态学中的一个术语来描述此现象:公地悲剧。
这种“个人获益,集体受损”的模式,揭示了我们与人工智能关系中一个被忽视的核心逻辑。
这表明,未来十年最成功的组织可能会采取一种反直觉的策略:不是利用 AI 来削减人类互动,而是利用它来创造更多的人类互动。
智能的真正来源:社会复杂性
想象一下,你用一个大型语言模型(LLM)来学习不同时代人类文明的所有文字记录。
- 古埃及模型(公元前3000年): 它能预测洪水,起草公文,但无法理解逻辑三段论。
- 古雅典模型(公元前300年): 它开始展现出逻辑推理能力。
- 文艺复兴模型(公元1500年): 它能够处理概率和导航计算。
- 现代模型(2025年): 它具备了我们今天所见的跨领域推理和多视角分析的复杂能力。
这个思想实验揭示了一个关键事实:模型的智能水平提升,不是因为技术架构的改变,而是因为它所吸收的文明的社会复杂性在不断提升。每一次认知能力的飞跃,都源于新的集体问题解决方式和协作形式,例如希腊的广场、罗马的法律、中世纪的大学和现代的互联网。
一个大型语言模型,本质上是“一个剔除了人类行动者的社会文化系统的运行模型”。它模拟的是我们共同思考的模式,而非个体独立的思考。
当产生这些数据的社会互动开始减少时,模型的智能会发生什么?这是硅谷没有充分思考的问题。
坍塌的风险:当模型吃掉自己
研究已经用数学方式证明,当 AI 模型开始用其他 AI 生成的数据进行训练时,其性能会迅速退化。这个过程被称为 “模型坍塌”。
- 原因: 在迭代生成中,少数派的观点、罕见的知识和独特的表达方式会逐渐消失。
- 结果: 模型会趋向于一个统计上的平均值——流畅、看似合理,但内容空洞。
这种现象的本质是 “社会心智的压缩”。当我们过度依赖 AI 生成的内容,而不去接触一手信息时,就会发生 “知识坍塌”,公众的认知会偏离事实。同时,与聊天机器人的互动也让人失去了在真实社交中通过辩论和质疑来修正错误看法的机会,从而陷入一种自信、流畅但肤浅的认知状态。
据估计,高质量的人类原创文本数据将在 2026 到 2032 年之间被耗尽。这不仅仅是资源枯竭,更严重的是,产生新知识的源泉本身正在干涸。
思想的自动化:我们正在放弃思考
研究发现,在 AI 辅助完成的任务中,有 40% 的情况下,参与者完全没有进行批判性思考。他们对 AI 输出的信心越高,投入的认知努力就越少。
这印证了早在 1983 年就提出的 “自动化的悖论”:
自动化系统越可靠,操作它的人类就越疏于练习。然而,当系统发生故障时,反而需要更高水平的技能来介入和修复。
当人们知道信息可以通过谷歌轻松获取时,他们便不愿花力气去记忆。而今天的 AI 不仅提供信息,还能生成分析和论证。这导致了一个奇怪的局面:个人生产力看似提升,但人类的集体思维速度却在放缓。
社会边缘悖论:AI正在侵蚀其自身根基
这里提出了一个核心悖论:
- AI 的能力依赖于人类语言产生的 社会复杂性。
- AI 的广泛应用(通过认知外包、同质化创作和削减互动密集型工作)正在系统性地 降低这种复杂性。
结论是,这项技术正在缓慢地侵蚀其赖以生存和发展的基础。AI 的智能并非凭空产生,它是人类社会中无数次谈判、争论、合作和文化传承留下的“化石”。如果孕育这些“化石”的社会空间因过度依赖人机互动而萎缩,那么 AI 的智能最终也会随之退化。
硅谷的盲点:对规模的迷信
许多 AI 领袖认为,只要不断扩大计算和数据规模,就能实现通用人工智能(AGI)。然而,他们忽视了一个根本问题:未来训练数据的质量是由社会决定的,并且可能正在下降。
他们没有考虑到所谓的 “大重构”(Great Recode)。现实是,AI 要想在现实世界中发挥巨大作用,需要依赖大量非 AI 的“遗留”基础设施。从 PDF 解析器到数据库架构,这些都需要 massive 的人力投入来升级和对接。讽刺的是,AI 公司发现他们必须雇佣那些深刻理解旧系统的专家,甚至是早已被认为过时的 COBOL 程序员,才能推动前沿进展。
新知识必须不断地从旧知识中汲取养分。如果支撑 AI 的社会基底——那个充满争论、制度多样、视角丰富的互动网络——被削弱,那么规模、架构和算力最终都将失去意义。
自我击败的算盘:裁员的短期收益与长期代价
AI 正在迅速取代入门级岗位,这看起来节省了成本。但这种做法极具破坏性。
- ** tacit 知识的来源被切断:** 专家的隐性知识(tacit knowledge)并非凭空而来,它是在处理具体工作的实践中,通过犯错、接受指导和吸收组织文化而慢慢习得的。
- 入门级岗位是未来的投资: 这些岗位不是成本,而是培养下一代专家的 “入口匝道”。移除这个匝道,虽然今天省了钱,但却饿死了未来知识的来源。
哈佛商学院的研究发现,当任务超出 AI 能力边界时,使用 AI 的顾问表现反而下降了 19%,因为技术让他们在最不该自信的地方变得过度自信。
正确的做法是,雇佣更多的人从事由 AI 辅助的、高互动性的角色,让 AI 成为学习的脚手架,而不是替代人类的工具。
未来的选择:消费遗产,还是再投资?
我们正在自动化和外包的“智能”,从来都不是个人独有的。它是在对话、争论和集体奋斗中锻造出来的。
AI 的能力是我们从人类社会生活的复杂性中继承的一笔遗产。而任何遗产,如果只消费而不进行再投资,终将耗尽。
在 AI 时代,领导力的质量变得至关重要。优秀的领导者,即 “凸性领导者”(convex leaders),能够将 AI 带来的认知富余转化为组织的雄心和结构性优势。他们明白,真正的长期优势不在于拥有多少 AI,而在于能否维持一个充满活力、互动丰富、能够不断产生新知识的社会环境。
这个“社会边缘”不仅是一个比喻,它也提醒我们,AI 投资热潮背后隐藏着自我毁灭的种子。领导者必须认识到,AI 的前沿,是由孕育其数据的社会世界的丰富性所决定的。