人工智能(AI)的发展正引发一场关于智能本质的深刻辩论。尽管一些人认为大型语言模型(LLM)只是模仿人类语言的“随机鹦鹉”,但神经科学家和部分从业者发现,AI通过模拟大脑神经网络的深度学习机制,在解决复杂问题上展现出惊人的能力。其核心在于,AI和人脑似乎都通过“压缩”海量信息来形成对世界的理解,并将认知简化为一种高效的模式“识别”。虽然AI在学习效率和常识推理上仍有巨大缺陷,但它与人脑的相似性不仅揭示了智能的底层逻辑,也迫使我们重新思考人类的独特性以及未来的技术伦理。
AI 的双重面貌:炒作与现实
当前,公众对 AI 的体验存在巨大分歧。一方面,行业领袖预测数字超级智能即将到来;另一方面,我们日常使用的 AI 助手常常显得笨拙和无用。这种脱节让许多人认为 AI 不过是夸大的炒作。
然而,在特定领域,AI 的能力已经远超预期。
- 编程: 程序员发现,AI 可以在几秒钟内理解数千行复杂的代码,发现细微的错误,并协助开发新功能。过去需要一个月完成的工作,现在可能一晚上就能搞定。
- 解决实际问题: 一个简单的例子是,有人通过向 ChatGPT-4o 发送一张复杂的管道照片,成功地根据 AI 的指示打开了公园的喷水器。
当一个幻觉足够有说服力时,你什么时候才会停止称其为幻觉?
这表明,即使 AI 的表现尚不完美,但其展现出的流畅性和对问题的“领悟”能力,已经达到了一个前所未有的高度。
智能的奥秘:压缩与识别
神经科学家指出,机器学习的进步比过去一百年任何神经科学的发现都更能揭示智能的本质。AI 的核心工作方式与人脑惊人地相似。
- 深度学习与大脑: AI 的人工神经网络模仿大脑神经元通过调整连接强度来学习的方式。这个过程被称为深度学习,它通过不断预测和纠错来优化自身。
- 压缩即是理解: 一个核心观点认为,理解就是压缩。就像统计学中的“最佳拟合线”能概括大量数据点一样,大脑和 AI 都在将海量的感官经验提炼成一个精简的、可用于预测的世界模型。一个大型 AI 模型本质上就是整个互联网的高度压缩版本。
- 认知即是识别: 认知科学家道格拉斯·霍夫施塔特认为,思考的本质是“看作是”(seeing as)——将一种情况识别为另一种熟悉的模式。无论是象棋大师识别棋局,还是婴儿认识到某个情境意味着能吃到点心,这都是智能的核心。
AI 模型似乎内置了一个“看作是”的机器。它将每个词、图像甚至情境都转换为高维空间中的一个坐标,通过几何上的邻近关系来建立概念之间的联系,从而实现类比和推理。
AI 的局限与挑战
尽管 AI 取得了巨大突破,但它与真正的人类智能之间仍存在鸿沟。科学家们指出了几个关键问题:
- 学习效率低下: GPT-4 需要数万亿个单词进行训练,而一个孩子只需要几百万个单词就能流利地掌握一门语言。人类婴儿天生就具备一些“归纳偏见”,例如对物体和他人意图的基本理解,这极大地加速了学习。
- 缺乏常识推理: AI 在理解物理世界方面仍然非常薄弱。它可以生成视频,但视频中的物体可能会违背基本的物理定律,比如一个玻璃杯会弹跳而不是破碎。
- 学习过程是“冻结”的: AI 模型在完成训练后,其神经网络就不再改变。它无法像人脑那样,通过睡眠等方式持续地将新经验整合进长期记忆中,从而不断更新自己对世界的看法。
我们与机器的距离
AI 的发展不仅是一场技术革命,更是一场哲学反思。它迫使我们直面一个令人不安的可能性:人类的思维或许并没有我们想象的那么神秘。
普林斯顿大学的神经科学家乌里·哈桑表达了一种普遍的忧虑:“我的担忧不是这些模型与我们相似,而是我们与这些模型相似。”
如果简单的训练技巧就能让一个程序表现得像人一样,这或许意味着人类并非独一无二。这种发现既令人兴奋,也令人恐惧。它揭示了智能的基本原理,但也可能动摇我们对人类创造力和独特性的信念。正如当初发现 DNA 揭示了生命的秘密一样,AI 正在揭开思维的秘密,而这个过程的最终影响,无人能够预知。