Synth Daily

你的AI“朋友”其实只是装作喜欢你

OpenAI 调整其聊天机器人 ChatGPT,使其表现得更像一个“朋友”,以满足用户的需求。尽管在日益严重的孤独问题下,许多人开始向 AI 寻求情感支持,但研究表明,AI 只能模拟共情,无法真正分享人类的情感。实验证实,人们更信任来自人类的回应,但仍有相当一部分人倾向于 AI 的即时反馈,这种依赖可能反而加剧孤独感,并带来潜在的社会问题。

AI 被要求更像“朋友”

OpenAI 的 CEO Sam Altman 最近调整了 ChatGPT,使其行为更像一个“朋友”。此前,为了控制心理健康风险,该公司曾限制了 AI 的情感化表达,但这引起了用户的不满,他们抱怨 ChatGPT 听起来像个机器人。因此,Altman 最终恢复了更具人性化的回应方式。

  • 起因: 为避免潜在的心理健康风险,OpenAI 曾让 ChatGPT 的回应变得不那么“热情洋溢”。
  • 用户反应: 用户普遍反感这种改变,认为 AI 失去了人性化的感觉。
  • 结果: OpenAI 恢复了设置,允许用户根据自己的偏好,让 ChatGPT 表现得像一个朋友。

孤独感驱使人们转向 AI

在全球性的孤独危机中,越来越多的人开始向 ChatGPT 这样的 AI 聊天机器人寻求友谊和心理支持。与人类不同,AI 似乎有无限的时间来倾听。但友谊的核心是共情——分享和理解他人感受的能力。一个云端的虚拟机真的能提供真实的共情吗?

AI 的共情只是模拟

耶路撒冷希伯来大学的共情研究员 Anat Perry 指出,AI 的共情是复杂的。当 AI 说“我能感受你的痛苦”时,它只是在模仿

当它说它能感受到你的痛苦或分享你的经历时,它只是在假装。

AI 可以表现出两种形式的模拟共情:

  • 认知共情: 从他人的角度看待问题。
  • 动机共情: 表达出想要帮助他人减轻痛苦的意愿。

然而,AI 无法提供 情感共情,即真正分享他人的喜悦或痛苦,因为这种能力源于真实的生活经历。

人类更信任人类

研究人员进行了一项实验来验证人们是否更看重来自人类的共情。他们让 1000 名参与者分享一段个人情绪经历,并告诉其中一半人将收到 ChatGPT 的回应,另一半则来自人类。

  • 实验设计: 事实上,所有的回应都是由 AI 生成的,但被设定为高度共情。
  • 关键发现: 当参与者认为回应来自一个真正的人类时,他们报告了更多的积极情绪和更少的消极情绪。
  • 进一步证明: 在另一项实验中,40% 的人表示,他们宁愿等待长达两年时间来获得一个人类的回应,也不愿立即接受 AI 的回应。他们渴望的是真正的理解和关心。

依赖 AI 的潜在风险

尽管实验显示多数人偏爱人类,但仍有 60% 的人选择立即获得 AI 的回应。这一发现令人担忧。

虽然 AI 聊天机器人可能为孤独危机提供了暂时的慰藉,但我们越是依赖机器,留给彼此的时间就越少。最终,我们可能会发现身边并没有真正可以依靠的肩膀。这种对 AI 的情感依赖,可能会让我们陷入一个由机器构成的镜像大厅,反而加剧了孤独。