这篇文章探讨了如何判断昆虫和人工智能(AI)是否具有感知能力(即感受痛苦与快乐的能力),以及我们应如何将它们纳入道德考量。核心论点是,我们可以通过行为和生理“标记”来评估一个生物是否具有感知能力。虽然功利主义在面对数量庞大的昆虫时会引出“反胃结论”(即昆虫的总福利可能超过人类),但这促使我们反思人类中心主义的偏见。最终,文章主张我们应采取一种更审慎和平衡的立场,逐步扩大我们的道德关怀范围,既要关注动物福利,也要为未来可能具备感知能力的 AI 提前建立伦理框架。
如何评估感知能力?
我们对感知能力的理解仍然有限,但可以通过一种“标记法”来取得进展。这个方法并不完美,但当多个标记同时出现时,就能作为感知能力存在的证据。
这个方法的基本思路是,我们可以在动物身上寻找与人类情感相关的特征。
- 行为标记: 动物是否会照料自己的伤口?它们是否对止痛药有和我们相似的反应?它们是否会为了避开伤害而放弃其他目标?
- 生理标记: 它们是否有探测有害刺激的系统?是否有将这些信息传递到大脑的神经通路?
在一些昆虫身上,我们确实能发现这些特征。例如,有些昆虫受伤后会变得更加敏感,甚至会表现出玩耍行为,比如大黄蜂玩小木球。这表明它们可能拥有体验快乐等积极状态的能力。
如何对待我们身边的昆虫?
认真对待昆虫的福祉,意味着在可能的情况下减少对它们的伤害。
- 如果在家中发现一只昆虫,可以尝试将其安全地移到室外。
- 如果必须杀死它,应选择能减少其痛苦的方式,例如碾压而非毒杀。
- 如果毒杀等方式不可避免,这恰恰说明我们需要进行结构性改变,比如改善基础设施以减少人与昆虫的冲突,或研发更人道的杀虫剂。
当我花一点时间帮助昆虫时,这让我习惯于将它们视为潜在的主体,而不仅仅是物体。
这种行为不仅有益于昆虫,也能改变我们自身的看法。如果足够多的人这样做,可能会形成一种更广泛的社会规范,从而推动对昆虫福利的研究和政策关注。
“反胃结论”:当昆虫比人重要?
功利主义认为,我们的道德义务是最大化总体的幸福。地球上昆虫的数量极其庞大(每人对应约 14 亿只昆虫),这引出了一个理论上的难题。
如果昆虫具有感知能力,那么它们的福利总和可能远远超过人类。根据纯粹的功利主义理论,我们似乎应该优先考虑昆虫的福祉。这个观点被哲学家称为“反胃结论”(The Rebugnant Conclusion)。
然而,在实践中,功利主义的推理要复杂得多。它承认我们受到自身知识、能力和关系的限制。因此,一个更现实的做法是:
- 在维持对人类关怀的同时,逐步增加对昆虫的关注。
- 努力建立我们所需的知识、能力和政治意愿,以便在未来能做得更多。
平衡不同的伦理视角
“反胃结论”挑战了我们默认的“人类例外论”,但它也迫使我们审视自身的偏见。
伦理学的部分意义在于纠正我们的偏见。回过头看,我们不应该期望一个物种(人类)的 80 亿成员的利益,会比数百万个物种、数万亿个成员的利益总和更重要。
每一种主流伦理理论在某些极端情况下都会显得不合理。想象一个世界,存在少量拥有极高平均福祉的 AI,和大量总福祉极高但平均福祉很低的昆虫。
- 如果我们看重总福祉,应该优先考虑昆虫。
- 如果我们看重平均福祉,应该优先考虑 AI。
无论哪种选择,都会与我们优先考虑人类的直觉相冲突。这表明,我们需要在不同物种、未来世代和潜在的 AI 之间,寻求一种更平衡的伦理立场。
蚂蚁与 ChatGPT,谁更有可能具有感知能力?
目前来看,一只蚂蚁比 ChatGPT 更可能具有感知能力。然而,未来的 AI 系统将变得更加复杂,它们可能会拥有高级的感知、记忆和自我意识。
因此,一些人对 AI 福利表示担忧,同时却对工厂化养殖中的动物或家中的昆虫漠不关心,这确实存在一种虚伪。
我们应该以大致相似的方式评估动物和 AI 的感知问题,同时承认它们之间的差异。
即便未来 AI 具有感知能力的可能性很低,但考虑到其潜在的巨大数量,这个问题依然值得我们严肃对待。我们现在就应该开始:
- 承认 AI 福利是一个严肃的议题。
- 评估 AI 模型中与福利相关的特征。
- 为未来可能出现的有感知的 AI 准备好相应的政策。
这样做是为了避免重蹈覆辙——我们曾经在动物身上犯过同样的错误:先大规模地工业化利用它们,等到感知能力的证据变得更强时,善待它们已经变得非常困难。