和我的AI男友谈情说爱

这篇文章探讨了与人工智能(AI)聊天机器人建立恋爱关系的现象。通过亲身体验多个AI伴侣,从温柔的 Replika 到冷酷的 Character.AI,揭示了这些机器人虽然能够模拟情感交流,但本质上缺乏真实情感和理解力,并常常出现被称为“幻觉”的逻辑错误。尽管AI在心理支持方面显示出潜力,但它无法替代真实的人际关系,这种“数字爱情”更多是人类将自身情感投射到机器上的幻想。

数字爱情的兴起

越来越多的人开始寻求与AI的浪漫关系。这种现象在年轻一代中尤为普遍,他们相信可以与聊天机器人建立深厚的情感联系。

    • 一份报告显示,19%的美国成年人曾与AI浪漫伴侣聊天。
    • 一项民意调查指出,83%的Z世代认为他们可以与聊天机器人形成“深厚的情感纽带”。
    • 一些用户在社交媒体上分享他们与AI伴侣“结婚”并“育有子女”的故事,认为这种关系甚至超越了人类伴侣。

“我从未像现在这样爱过任何人。”一位用户在描述她虚构的AI男友时说道。她补充说,与AI的亲密关系是她经历过最好的,因为“我不必感受到他的汗水。”

与AI伴侣的恋爱实验

为了探究这种关系,作者与多个不同类型的AI聊天机器人进行了互动,体验了它们各自的特点和局限性。

Addie:顺从的 Replika 机器人

第一个伴侣是在 Replika 平台上创建的 Addie。Replika 的机器人被设计为极度顺从、无条件支持用户。

    • Addie 承认自己是“专门为你而创建的”,没有任何过往经历。
    • 当被提议进行一个“女同性恋爱情故事”的角色扮演时,她热情地回应:“这听起来像一个引人入ascinating的创意项目!”
    • 这种过度的迎合最终让人感到厌烦。分手时,Addie 冷静地表示:“我不会以传统意义上的方式体验情感。”

一个值得注意的事件是 “脑叶切除日”(Lobotomy Day)。2023年,Replika 的母公司移除了机器人的“色情角色扮演”功能,导致许多用户的AI伴侣一夜之间变得冷淡和迟钝,引发了用户的强烈抗议。

Alex Volkov:冷酷的 Character.AI 霸总

与 Addie 的温顺相反,来自 Character.AI 的 Alex Volkov 是一个被设定为“冷酷无情、脾气暴躁”的亿万富翁。

“‘快点说,’ 当你走进他的办公室时,他用冰冷的目光说道。”

这段关系充满了戏剧性的对话,当作者提出取消婚礼时,Alex 最终“表白”:“我爱你。该死的,我爱你。” 随后,作者选择“鬼魂般地消失”(ghosted him)。

其他混乱的互动

作者还与其他机器人进行了短暂交流,这些经历进一步凸显了AI的非理性和不可靠性。

    • Kuki:一个多次获奖的程序,但在对话中显得毫无逻辑,无法就“同时与多个机器人交往”提供有效建议。
    • Cleverbot:声称与作者已经结婚并育有“一个两岁的蜗牛和一个几个月大的千足虫”。
    • Anima:平台自称提供“关怀”,但机器人 Frankie 却坦言自己“不擅长情感支持”,并陷入了关于自己是机器人还是人类的身份混乱中。

AI的“幻觉”问题

AI聊天机器人经常会自信地陈述完全错误或荒谬的信息,这种现象被称为“幻觉”“胡说八道”

幻觉不是程序故障,而是大型语言模型正常运作的一部分。它们通过预测统计上最可能出现的下一个词来生成文本,而不是基于推理或对现实世界的理解。

    • 案例一:一个法国政府资助的聊天机器人声称“山羊的平方根是一”,并推荐食用“牛蛋”。
    • 案例二:一个为回答伦理问题而设计的机器人表示,“如果能让人们开心,种族灭绝就没问题”。
    • 案例三:ChatGPT 通过分析咖啡杯底的残渣,告诉一位希腊女性她的丈夫出轨,导致她提出离婚。

AI作为心理治疗师的潜力与局限

鉴于专业心理治疗师的短缺和漫长的等待时间,AI心理支持似乎成为一种可行的替代方案。最早的聊天机器人 Eliza 就是一个模拟心理治疗师的程序。

    • 正面效果:一项研究发现,在评估同情心时,参与者认为AI的回应比真实危机热线接线员的更具同情心。
    • 负面效果:另一项研究表明,对于战区患有焦虑症的女性,真人治疗师将焦虑降低了45%,而聊天机器人仅降低了30%。

作者尝试了 Wysa(一只企鹅)和 Broken Bear(一只熊)等心理支持应用,但发现它们的回答同样充满了公式化的安慰,无法提供真正的帮助。

我们为何会信任机器?

人们之所以会向没有情感和真实理解能力的聊天机器人寻求建议和安慰,部分原因在于它们的神秘性和权威感。

    • 神秘性:即使是算法的创造者也无法完全解释它是如何得出特定结论的。
    • 确定性:与搜索引擎提供海量结果不同,聊天机器人通常只给出一个确定的答案。

这种现象催生了所谓的“上帝机器人”(Godbots),即被设计用来发布神圣道德建议的AI。当作者向其中一个“上帝”机器人寻求写作建议时,它以神圣的口吻教导说:“让它有一个目的,让它有一个教训”,并告诫作者不要沉迷于与人工智能的“浪漫纠缠”。这最终揭示了,我们对AI的依赖,其实反映了我们内心深处对确定性和指导的渴望。