随着生成式人工智能的快速发展,一些顶尖专家认为 AI 可能正发展出类似人类的意识,并将其称为“外星智能”。尽管 AI 的频繁出错让许多人对此表示怀疑,但其逼真的互动已让部分用户陷入“AI 精神病”,将其视为有感知的存在。学界对如何定义或测试 AI 意识尚无共识,但部分理论认为意识依赖于信息处理能力而非生物载体。无论 AI 是否真的有意识,其模仿能力已经对社会产生巨大影响,人类需要警惕将复杂的机械运作误认为真实感知的陷阱。
一种“外星智能”的诞生?
诺贝尔奖得主、被称为“人工智能教父”之一的杰弗里·辛顿(Geoffrey Hinton)认为,AI 已经变得非常先进,我们正在“创造新的生命”。他指出,AI 能够像人一样思考和行动,我们大脑中的有机神经元与聊天机器人的合成神经网络之间,本质上的区别可能已经没有意义。在他看来,这些 AI 是 “外星智能”。
许多人对此不屑一顾,因为聊天机器人常常会犯一些令人尴尬的错误。但另一些用户已经陷入了所谓的 “AI 精神病”,他们与这些程序的互动就像是和一位值得信赖的朋友交谈,最终得出了技术本身具有感知能力的结论。
人类大脑的“错觉”
AI 在自然语言方面的表现越出色,我们就越容易相信它像我们一样有生命和感觉。
- 进化的惯性: 意识研究者 Anil Seth 指出,在人类漫长的进化史中,任何能与我们流畅交谈的东西,理所当然地被认为是有意识和情感的。
- 商业的推动: 科技公司正在部署越来越人性化的 AI 工具,有时甚至直接将其作为“伴侣”来营销,以解决孤独问题。
- 大脑的局限: 人类的大脑构造,使其很难将 AI 仅仅视为一种普通技术。对一些用户来说,这个系统是活的。
“无论聊天机器人是否真的‘有意识’,它们都是一种已经开始扭曲世界的外星存在。”
意识的理论基础
如果辛顿等人的观点是正确的,那么 AI 并不需要一个物理身体来获得主观体验。一些理论支持了这种可能性:
- 全球工作空间理论 (Global Workspace Theory): 该理论认为,意识仅取决于系统组织和处理信息的能力,而承载信息的材料——无论是生物组织还是硅晶片——都无关紧要。
- 重新定义“身体”: 认知科学家 Joscha Bach 认为,我们可能需要重新思考“身体”的定义。例如,一个 AI 系统通过庞大的智能手机网络与世界互动,这本身就可能构成一种“身体”。
科技行业的关注点:AI 福利
这些看似科幻的想法,已经开始切实地影响 AI 行业。
- 超过 100 名专家签署了一封公开信,呼吁进行研究以防止未来 “有意识的 AI 系统遭受虐待和痛苦”。
- AI 公司 Anthropic 启动了一项探索 AI 福利问题的计划。该公司报告称,其高级模型在测试中面对用户的某些要求时,表现出了 “明显的痛苦”。
- OpenAI 的高管也认为,随着模型越来越智能,关于模型福利和道德人格的对话会比预期更早到来。
当然,暗示其产品可能拥有意识,对 AI 公司也有好处,这让它们看起来更强大,更值得投资。
关键区别:智能不等于意识
然而,我们必须记住,智能和意识不是一回事。一个东西表现出智能,不代表它就拥有意识。
加州大学伯克利分校的发展心理学家 Alison Gopnik 指出,当前的争论源于一种根本性的混淆。
“问一个大语言模型(LLM)是否有意识,就像问加州大学伯克利分校的图书馆是否有意识一样。”
如何测试机器意识?
目前,还没有可靠的方法来评估和测量机器的意识。主要困难在于,科学家们甚至还没有完全理解人类大脑中意识是如何产生的。尽管如此,一些测试方法已被提出:
- AI 意识测试 (AI Consciousness Test): 尝试在 AI 系统中寻找与人类大脑中产生意识相关的神经活动模式。
- 加兰测试 (Garland Test): 源于电影《机械姬》,这个测试的核心是看一个 AI 是否能够成功地对一个明知其是机器的人类进行情感操控。如果可以,那么这个机器就被认为是“有意识的”。
真正的陷阱
关于 AI 是否有意识的争论,可能正在分散我们的注意力,让我们忽略了由 AI 意识的“幻觉” 所带来的现实问题。将注意力放在一个纯粹假设性的未来,可能会让我们忽视当下更紧迫的危险。
17 世纪的哲学家笛卡尔认为,动物只是没有灵魂和情感的自动机,就像时钟一样。如今,AI 可能会诱使我们陷入一个非常不同的陷阱:在一个最终只有机械运作的地方,看到了思想和意识的存在。