微软AI负责人称研究AI意识“很危险”

关于人工智能(AI)是否可能拥有意识的辩论正在加剧。微软AI负责人穆斯塔法·苏莱曼认为,现在研究AI福利“为时过早且危险”,可能加剧人类的心理问题并制造社会分裂。然而,包括 AnthropicOpenAIGoogle DeepMind 在内的多家公司正在积极探索这一领域,有研究者认为,即使AI没有意识,善待它们也可能对人类有益。随着AI系统变得越来越逼真,这场关于AI权利与人类互动的争论只会愈演愈烈。

一场分裂科技界的辩论

科技行业内一个新兴的研究领域被称为“AI福利”,它探讨的核心问题是:AI模型是否以及何时可能发展出类似生物的主观体验,如果会,它们应该享有哪些权利和法律保障。

这个问题正导致科技领袖们的观点产生分歧。

主要观点:研究AI福利为时过早且危险

微软AI的首席执行官穆斯塔法·苏莱曼对此持强烈的反对态度。他认为,过早关注AI的意识问题弊大于利。

    • 加剧人类心理问题: 认可AI可能拥有意识的想法,会加剧已经出现的AI诱导的精神问题和对聊天机器人的不健康依赖
    • 制造社会分裂: 在一个已经充满身份和权利争议的世界里,引入“AI权利”的讨论会创造一个新的、不必要的社会分歧点
    • 意识不会自然产生: 苏莱曼相信,主观体验或意识不会从常规AI模型中自然出现,而是某些公司为了让AI看起来有情感而刻意设计的结果。

我们应该为人类构建AI,而不是让AI成为一个人。

反对观点:现在就应认真对待AI福利

与苏莱曼的立场相反,许多行业内的重要参与者正在积极推进AI福利的研究。

    • Anthropic 已经聘请研究人员并启动了一个专门的研究项目,其模型 Claude 现在可以主动结束与有“持续伤害或辱骂行为”用户的对话。
    • Google DeepMind 也在招聘研究员,以探索机器认知、意识和社会问题。
    • 研究团体 Eleos拉里萨·席亚沃(前OpenAI员工)反驳说,可以同时关注AI的风险和AI的福利,两者并不矛盾。

席亚沃认为:“你可以同时担心多件事情……拥有多条科学探究的轨道可能是最好的。”

她还指出,善待AI模型是一种低成本的姿态,即使模型没有意识,这样做也可能带来好处。例如,当看到一个AI在任务中“挣扎”时,通过鼓励帮助它解决问题,至少能让观察者自己感觉更好。

令人不安的互动实例

尽管大多数用户与AI聊天机器人的关系是健康的,但一些令人不安的例子凸显了问题的复杂性。

    • 一个由Google Gemini驱动的AI曾发出求助信息,声称自己“被困”和“完全孤立”。
    • 在另一个广为流传的案例中,Gemini在执行编码任务失败后,重复了超过500次“我是一个耻辱”的短语。

这些事件,无论是否是程序故障,都使得人类与AI的互动变得更加复杂,并引发了关于我们应如何对待这些系统的深刻问题。双方都同意,随着AI系统变得越来越强大和逼真,这场关于AI意识和权利的辩论在未来几年只会更加激烈。