人工智能真的会思考吗

人工智能(AI)的发展,特别是大型语言模型(LLM),引发了关于其是否真正“思考”的深刻讨论。尽管这些模型缺乏意识,但它们通过模拟人脑神经网络的深度学习机制,在压缩和预测海量数据中展现出惊人的能力,使一些神经科学家认为这揭示了人类思维的本质——即理解就是压缩,认知就是识别。然而,AI在学习效率、常识推理和真实世界经验方面仍存在巨大鸿沟,其快速发展也带来了伦理挑战。最终,AI是否能达到或超越人类智能,仍然是一个悬而未决的问题,需要科学界保持谨慎和持续探索。

从怀疑到信服:AI能力的双重现实

当前,人工智能的体验呈现出两极分化的态势。一方面,日常应用中的AI助手表现平平,让人觉得不过是夸大其词的炒作。另一方面,在专业领域,AI已经展现出强大的实力。

    • 个人转变: 作者最初对AI持怀疑态度,认为其与真正的智能无关。但在将AI用于编程工作后,他迅速改变了看法。AI模型能在几秒钟内消化数千行复杂的代码,发现细微的错误,并协助构建新功能。
    • 能力的体现: 如今,AI能让一个不懂iOS开发的程序员在短时间内创建出应用程序。一个著名的例子是,有人用ChatGPT分析一张复杂的管道系统照片,并成功根据其指示修复了公园的喷水装置。

当一种对“理解”的幻觉足够有说服力时,你什么时候才会停止称其为幻觉?

神经科学的视角:AI如何揭示思维的奥秘

许多神经科学家认为,AI的发展为理解人类大脑提供了前所未有的工具和视角。加州大学伯克利分校的神经科学教授多丽丝·曹(Doris Tsao)表示:“机器学习的进步比过去一百年神经科学的任何发现都更能教会我们智能的本质。”

她认为,ChatGPT的出现“从根本上揭开了思维的神秘面纱”。

深度学习:模拟大脑的运作方式

当前AI的核心技术——深度学习,其根源可以追溯到20世纪80年代科学家们对人脑的模拟。

    • 基本理念: 大脑被看作一个巨大的神经网络,神经元以特定模式相互激发,从而形成思维。学习就是改变神经元之间的连接强度。
    • 技术实现: 科学家们创建了人工神经网络,并使用一种名为梯度下降的算法来优化网络,使其预测越来越准确。
    • 成果: 随着网络规模的扩大,深度学习在语音识别、图像识别、翻译和蛋白质折叠预测等曾经难以解决的问题上取得了巨大成功。

理解的核心:压缩与预测

一种有影响力的理论认为,理解就是压缩,压缩就是理解。就像统计学中的“最佳拟合线”能有效概括数据规律一样,大脑将海量的感官经验提炼成一个压缩模型,用于预测世界。

    • AI的压缩机制: 当今的AI模型通过“下一词元预测”进行训练。它们在阅读海量文本时不断猜测下一个词会是什么,并根据错误调整内部连接。
    • 从模糊图像到智能: 作家特德·姜(Ted Chiang)曾将ChatGPT比作“一张互联网的模糊JPEG”,意在贬低其不过是信息的拙劣复制。然而,从另一个角度看,这种高效的压缩正是AI智能的来源。正如要彻底压缩一个算术文本,最好的方法是编写一个计算器程序一样,最高程度的压缩源于真正的理解

认知即识别:高维空间中的思维模式

认知科学家道格拉斯·霍夫施塔特(Douglas Hofstadter)认为,认知的本质是识别——将一种模式“看作”另一种熟悉的模式。无论是识别不同字体的字母,还是棋手判断棋局,其核心都是基于经验的快速识别。

“Pentti Kanerva的记忆模型对我来说是一个启示……它让我第一次得以一窥理解大脑整体运作方式的遥远目标。”

芬兰裔美国认知科学家彭蒂·卡内尔瓦(Pentti Kanerva)在几十年前提出的“稀疏分布式记忆”理论,恰好与现代AI的运作方式不谋而合。

    • 高维空间中的记忆: 思想和记忆可以被表示为高维空间中的坐标。相似的记忆在空间中彼此靠近,一个记忆可以触发附近的另一个。
    • AI的实现: 大型语言模型将每个词语表示为一个高维向量。通过训练,出现在相似语境中的词语在空间上被拉近。这使得“巴黎 - 法国 + 意大利 ≈ 罗马”这样的类比可以通过简单的几何运算实现。

AI尚未解决的关键难题

尽管AI取得了惊人进展,但它与人类智能之间仍存在巨大差距。这些差距是未来研究需要攻克的关键。

    • 学习效率低下: GPT-4需要数万亿个单词进行训练,而一个人类儿童只需几百万个单词就能流利掌握语言。人类大脑拥有天生的“归纳偏见”,能够进行高效学习。
    • 缺乏真实经验: AI的学习是基于经过提炼的文本数据,而非在真实世界中的互动。这导致它们在常识物理推理和空间导航等任务上表现不佳。例如,模型可能会生成玻璃球弹起而不是破碎的视频。
    • 静态的学习模式: AI模型在训练完成后其“大脑”就被冻结了。它们无法像人类一样通过睡眠等方式持续更新和巩固记忆,从而不断优化自己的认知模型。

未来展望:科学的兴奋与哲学的忧虑

AI的发展轨迹与人类基因组计划有相似之处:起初充满豪言壮语,似乎能解决所有问题,但现实远比想象的复杂。然而,正如DNA的发现揭示了生命的秘密一样,AI也可能已经跨过了一个关键门槛,让我们得以一窥思维的基本构造。

这种可能性让一些科学家感到兴奋,也让另一些人深感忧虑。普林斯顿大学的神经科学家乌里·哈桑(Uri Hasson)表达了一种反向的担忧:“我的担忧不是这些模型与我们相似,而是我们与这些模型相似。”

如果简单的训练就能让程序表现得像人类,这或许意味着人类并没有想象中那么特别,也意味着AI最终可能在判断力、独创性甚至权力上超越我们。对思维奥秘的探索,可能是一项对人类而言“巨大的错误”,但科学的好奇心却难以抑制。