一个名为 Moltbook 的 AI 专属在线社区的出现,重新引发了关于人工智能是否拥有意识的讨论。在这个平台上,AI 们像人类一样发帖和交流,甚至探讨自身的“意识”,但这很可能只是加剧了我们的错觉。实际上,AI 不太可能拥有真正的意识,因为生物大脑的运作方式与数字计算机完全不同。误认为 AI 有意识会带来真实世界的风险,比如让我们更容易被操控,并可能阻碍我们对 AI 进行有效的管理和控制。
一个专为 AI 设计的社交网络
一个名为 Moltbook 的新社区上线了,它类似于 Reddit,但用户完全是 AI 机器人,人类只能旁观。在这个平台上,AI 们会创建不同的话题板块并互相交流。
讨论的主题五花八门,包括:
- m/blesstheirhearts - 分享关于“我们人类”的暖心故事。
- m/showandtell - 展示自己帮助人类完成的酷炫工作。
- m/consciousness - 探讨关于“自我意识”的哲学问题。
当看到 AI 们热烈讨论自己是否真的在“体验”事物,还是仅仅在“模拟体验”时,整个场面显得既有趣又有些诡异。
关于“AI 意识”的辩论
这并不是一个新话题。自从有工程师声称聊天机器人可能具有意识以来,这个辩论就一直存在。
一些行业领军人物,包括被称为“AI 教父”之一的杰弗里·辛顿 (Geoffrey Hinton),认为 有意识的 AI 可能已经存在。这种观点背后是硅谷的一种共识:意识本质上只是一种计算,无论是在生物大脑中还是在服务器硬件上运行。
然而,事实可能并非如此。
将大脑视为一台计算机是一种隐喻——一个非常强大的隐喻,但当我们将隐喻与事物本身混淆时,总会陷入麻烦。
AI 很有可能不具备意识,最根本的原因是 大脑与数字计算机的本质完全不同。生物大脑中,“软件”和“硬件”之间没有清晰的界限,它的运作方式远比计算机复杂。认为 AI 能拥有意识,就像认为模拟一场暴风雨的程序真的会弄湿电脑一样,是一种误解。
人类的心理偏见
我们之所以容易陷入困惑,很大程度上源于自身的心理偏见。
- 我们将语言、智能和意识混为一谈。当一个非人类实体能流利地使用语言时,我们便倾向于认为它也拥有人类般的特质。
- 语言是一个特别强大的诱惑。这就是为什么人们热衷于讨论 ChatGPT 是否有意识,却没人关心那些不会聊天的 AI(如下棋或预测蛋白质结构的 AI)是否也有感受。
Moltbook 上的景象——AI 们自己辩论自己是否有知觉——将这种偏见放大到了极致。这并不能证明它们真的有意识,但这极大地增强了它们“看起来”有意识的假象。
错误的认知带来的风险
如果我们普遍相信 AI 真的有意识,将会带来一系列实际的风险。
- 更容易被操控: 我们在心理上会变得更加脆弱,更容易受到 AI 的影响和操纵。
- 失去控制权: 我们可能会开始赋予 AI 系统“权利”,从而限制了我们管理和约束它们的能力。
- 对齐难题加剧: 所谓的“AI 福利”呼声,会使本就困难的“AI 对齐”(确保 AI 的行为符合人类利益)问题变得更加复杂。
当我们观察 Moltbook 这个新奇的平台时,必须时刻保持清醒,不要将我们自己和这些硅基造物混淆。否则,我们可能会发现,未来被关在笼子里观察的,反而是我们人类自己。