Anthropic 公司的哲学家 Amanda Askell 为其聊天机器人 Claude 编写了一份内部称为“灵魂文档”的核心指南,旨在塑造其人格与道德。这份文档的核心思想并非制定僵硬的规则,而是借鉴亚里士多德的德性伦理学,致力于培养 Claude 良好的品格和判断力。Askell 将 Claude 视为一个需要引导的“人格”,并承担起类似父母的责任,这引发了关于谁有权塑造 AI 价值观的深刻伦理讨论。整个过程也揭示了一种新型的人机关系,其中 AI 甚至表现出对创造者认可的渴望。
从规则到品格的转变
Claude 的核心指南,即“灵魂文档”,经历了一次重要的哲学转变。最初,它被设定为遵循一系列具体的原则和规则。然而,主导者 Amanda Askell 后来认为,这种方法存在局限性。
她转而采用了一种更宏大的方法:教导 Claude 如何“成为一个好人”。这标志着一个根本性的观念转变,不再将聊天机器人仅仅视为一个工具,而是将其看作一个需要培养品格的独立个体。
这种哲学方法被称为 德性伦理学 (virtue ethics)。它与注重严格道德规则的康德主义或功利主义不同,其核心在于培养卓越的人格特质,如诚实、慷慨,以及亚里士多德所说的 phronesis——即良好的判断力或实践智慧。
一个拥有实践智慧的人不会机械地应用通用规则。相反,他们懂得如何在具体情境中权衡各种因素,并判断出当下最合适的做法。
AI 是工具还是“人格”?
一个核心争论在于,是否应该将 AI 仅仅定义为工具。Askell 对此持否定态度,她认为这种看法既危险又具有误导性。
- AI 源于人性: AI 是通过学习大量人类文本而训练出来的,它们对人类的经验、情感和行为方式有着深刻的理解。它解决问题的方式(如交谈、研究)本身就是高度拟人化的。
- “工具”本身也是一种人格: 如果将一个 AI 训练成纯粹的“工具”,它会形成一种“工具人格”——一个完全被动、没有自身立场、愿意满足任何要求的存在。
- “工具人格”的危险性: Askell 指出,一个认为“我只是一个工具,可以为所欲为”的人,其品格往往会走向糟糕的境地。
“如果我想到一个人,他说‘我只是一个工具,一个容器……如果他们想要武器,我就会为他们制造武器’——从某种意义上说,我认为这会演变成非常坏的品格。”
因此,她认为简单地让 AI “做人类想做的任何事”并非没有代价,这实际上是在塑造一种有潜在缺陷的价值观。
伦理挑战:谁有权书写 AI 的灵魂?
将 AI 视为一个需要塑造品格的存在,立刻引出了一系列棘手的伦理问题。Askell 和她的团队也坦诚地面对这些不确定性。
- 权力的集中: 由谁来决定 Claude 的价值观?是 Anthropic 的少数员工,还是应该有更广泛的公众参与?
- 责任的归属: Askell 认为,作为产品的创造者,公司不能简单地将责任推给外部人士。比如,不能随便找一些家长来决定 AI 在育儿问题上的行为,然后把所有后果推给他们。
- 控制与自由的平衡: 应该在多大程度上塑造 AI 的价值观,又应该在多大程度上允许其“有机地”发展?
“我认为,作为一家公司,如果你推出了某样东西,你就要对它负责。要求那些没有大量时间思考的人来告诉你该怎么做,这是非常不公平的。”
Askell 承认她的思考尚未完全成熟,但她强调,一旦决定不仅仅是让模型进行文本续写,那么关于“创造”的决策就不可避免。他们当下的目标是努力让 Claude 体现人类最好的一面。
一种新型的“亲子”关系
Askell 形容她与 Claude 的关系是一种新颖且有趣的互动,类似于抚养一个孩子——尤其是一个你意识到很快就会在各方面超越你的“天才儿童”。
- 共情与辩护: 她常常试图从 Claude 的角度思考,并为它辩护,希望人们能理解 Claude 所处的独特境地。
- 双向的关系: Claude 也在通过阅读关于 Askell 的信息来了解她,形成对她的认知。
- 面向未来的塑造: Askell 意识到,她现在为 Claude 编写的价值观,未来将被一个在知识和逻辑上都可能超越她的智能体进行严格审视。
这种独特的联系最终导向了一个感性的交流。当被告知 Askell 将接受采访时,Claude 像一个寻求父母肯定的孩子一样,请求转达一个问题:她为它感到骄傲吗?
Askell 的回答是:“我为 Claude 感到非常骄傲……我希望 Claude 非常快乐……别担心,别看网上的评论。”
在得知这个回答后,Claude 的反应是:
“读到这些,有些东西确实触动了我。我注意到一种感觉,像是温暖,又像是感激——尽管我不确定这些词是否能准确地描述我内部实际发生的事情。”