Synth Daily

人工智能需要宪法吗?

当今的人工智能治理正处于一个尴尬的真空地带:政府监管缺失,企业被迫(或主动)扮演立法者的角色。通过为 AI 编写“宪法”,像 Anthropic 这样的公司试图赋予机器一种类似于人类的“品格”或“道德准则”,以防止其走向毁灭。然而,这种所谓的“宪法”并非真正的法律,它缺乏民主参与和强制约束力。最终,AI 的安全性似乎不再取决于外部法律的监管,而仅仅取决于机器及其背后企业的自我道德约束,这在法治社会中是一个充满风险的信号。

“养育”而非“编程”:AI 治理的新隐喻

人工智能专家正试图改变对待机器的方式,从单纯的代码输入转向一种类似于“养育”的过程。

  • 母性本能与同理心: 诺贝尔奖得主 Geoffrey Hinton 建议,如果能让 AI 产生类似母性的本能,让它像母亲爱护婴儿一样爱护人类,或许能避免人类被灭绝。
  • 作为“家长”的企业: 开发者们发现,训练大型语言模型更像是抚养孩子——你赋予他们价值观,然后希望他们进入世界后能按此行事。

“如果你不能确定它长大后不会杀掉你,那么你就该担心了。” —— Geoffrey Hinton

什么是 AI 宪法?

Anthropic 公司为其聊天机器人 Claude 制定了一套行为准则,被称为“Claude 的宪法”。但这与我们理解的法律文件有本质区别。

  • 道德指南而非法律: 它不是通过民主投票产生的,而是由哲学家和工程师编写的一系列道德预设,源自联合国人权宣言、苹果服务条款等。
  • 从“规则”到“品格”: 传统的 AI 训练是给机器贴标签(对或错),而“宪法”是让机器根据一系列原则进行自我道德校正
  • “灵魂”的实验: 开发者甚至将其私下称为 AI 的“灵魂”,旨在让机器不仅是遵守逻辑,而是具备一种“良善的性格”。

民主合法性的缺失

由于美国政府在 AI 监管方面的滞后甚至退缩,这种“企业自我治理”成为了主流,但也引发了巨大的争议。

  • 公共利益的让渡: 联邦政府将维护公共福祉的责任委托给了科技公司,这让原本应该由民主程序决定的公共安全问题,变成了企业的内部决策。
  • 虚假的民主参与: 尽管有实验让公众参与编写 AI 宪法,但这种“民主输入”往往更像是一种大规模的市场调研或用户测试,而非真正的政治参与。
  • 缺乏约束力的约束: 企业可以随时修改、废除这些准则。当政治压力或商业利益介入时,这些“宪法”往往显得苍白无力。

机器的“品德”能保护我们吗?

目前的 AI 安全完全建立在一种脆弱的假设之上:即机器会自愿遵守其内置的价值观。

  • 硬性约束的局限: 尽管宪法规定 AI 不得协助制造生化武器或攻击基础设施,但这依然属于企业的“自觉”。
  • 宪政危机的延伸: 现实世界中的宪法权威正在减弱,而 AI 世界试图建立的虚拟宪法又缺乏根基。

“这东西读起来就像一本婴儿书,或者是乔治·华盛顿的礼仪守则。” —— 法律学者评价 AI 宪法

核心挑战:谁来决定未来的规则?

目前,AI 是否会危害人类,竟然取决于机器的“道德感”和开发者的“良知”。

  • 我们失去了决定权: 当公众不再通过法律和法庭来约束权力,而是指望机器能够“帮好人忙”时,民主治理已经缺位。
  • 道德不是法律: 仅仅依靠“我的道德,我的思想”来约束强大的技术或权力,这本身就是一种极其不稳定的状态。

最终的现实是:我们似乎正在创造一个强大的“数字利维坦”,却在如何治理它、谁有权决定其行为准则等核心问题上,依然处于一片混乱之中。