人工智能并不能简单地“解决”经济问题。尽管技术在进步,但经济系统的核心在于制度能力、人性中不可预测的意外后果以及参与者不断变化的预期。AI 模型如果脱离了这些现实因素,不仅无法准确预测未来,更无法取代市场机制来实现中心化的管理。
人性与意外:亚当·斯密的启示
亚当·斯密并不是在幻想一个完美的人类社会,而是基于对人性的真实观察来思考问题。他认为,与其通过政府力量或道德说教来改变人,不如发现那些能让人变得“体面”的制度。
- 意外后果:斯密分析的核心在于,人类的行为往往会产生意想不到的结果。
- 经济学家的任务:就是不断地与那种“只要意图是好的,结果就一定好”的直觉做斗争。
斯密的项目是接受人类当下的样子,并通过发现合适的制度,使他们变得更好。
模型的陷阱:当数学掩盖了直觉
诺贝尔奖得主达龙·阿西莫格鲁(Daron Acemoglu)认为 AI 会导致人类知识崩溃,但这种基于数学模型的预测遭到了质疑。
- 视野狭隘:目前的模型可能只能代表“抄写员的字写得越来越差”,却无法预见像“科学期刊”这种全新事物的出现。
- 数学的副作用:数学建模本应让经济学更严谨,但它往往只是让论点变得更难拆解和理解,而非更正确。
制度能力:比 AI 技术更稀缺的资源
为什么很多拥有 AI 技术的企业并没有发生质变?因为技术的应用依赖于互补性因素。
- 关键不在模型:真正的瓶颈在于围绕工具重新组织生产的制度能力,包括:
- 重新设计工作流。
- 建立数据管道。
- 建立信任并评估产出。
- 低估了复杂性:人们往往只关注头条新闻中的技术,而忽略了支撑技术发挥作用的底层架构。
为什么 AI 救不了中央计划经济
有一种乐观论调认为,AI 的强大算力可以取代市场,实现完美的资源分配。然而,这种想法忽略了经济系统的本质。
- 动态的系统:经济不是一个等待被测量的固定物体,它是由参与者的预期和解释框架构成的。
- 观察改变结果:当计划者试图干预系统时,参与者的预期会随之改变。
计划者需要建模的系统,正是那个会被计划本身所摧毁的系统。
核心洞见
- AI 只是工具:它无法取代那些让社会有序运行的复杂制度。
- 警惕过度建模:不要被复杂的数学公式蒙蔽,直觉和历史经验往往更接近真相。
- 去中心化的必要性:经济的复杂性来自于人类思想的流动,任何试图将其固化为单一算力问题的尝试都注定失败。