Synth Daily

AI 泡沫内的视角

这篇文章探讨了在大型 AI 会议 NeurIPS 上观察到的一个核心矛盾:一边是少数精英和公众人物对“通用人工智能”(AGI)可能毁灭人类的科幻式担忧,另一边则是绝大多数一线研究人员对 AGI 概念的漠不关心,他们更专注于解决现实的技术问题。这种现象发生在一个极度繁荣、人才薪酬高得惊人的行业泡沫之中,不禁让人质疑,对遥远未来的夸张恐惧,是否正巧妙地掩盖了 AI 技术当下已经造成的实际伤害,并最终服务于行业内部的利益。

两种截然不同的 AI 叙事

在 AI 行业内部,存在着两种几乎平行的对话。一种是关于未来的宏大叙事,另一种则是关于当下的技术现实。

  • 公众叙事:对“超级智能”的恐惧。 少数 AI 安全倡导者和行业领袖,如马克斯·泰格马克(Max Tegmark),公开警告 AGI 可能导致人类灭绝。这种论调虽然引人注目,但被许多人认为是基于科幻小说的想象,而非科学事实。

  • 内部现实:专注解决眼前问题。 大多数在 NeurIPS 大会上的研究者和开发者,对 AGI 的概念要么不了解,要么不关心。他们的工作重点是解决当前技术中更具体、更实际的问题。

一个发人深省的现象是:许多 AI 开发者正在努力解决技术中最切实的问题,而关于 AI 的公共对话——包括那些最著名的开发者自己的言论——却被想象中的问题所主导。

“超级智能”的威胁有多真实?

尽管关于 AGI 的讨论甚嚣尘上,但这个概念本身就非常模糊,甚至 OpenAI 的 CEO 萨姆·奥特曼也称其为“一个定义不清的术语”。

社会学家 Zeynep Tufekci 警告说,对超级智能的执着正在阻碍研究人员理解他们正在构建的技术。她认为,人们正被错误的噩梦所困扰。

真正的危险并非来自未来的天网,而是当下已经发生的问题:

  • 普遍的聊天机器人成瘾
  • 真相和事实的验证方法被侵蚀
  • 虚假视频对公共话语的污染
  • 聊天机器人引发的心理健康危机
  • 对艺术和人文学科内容的掠夺

然而,就连一些顶尖专家也将这些灾难性危害视为 “三到十年或二十年” 之后的事情,认为我们仍有时间“从技术上解决它”。

会议现场的真实情况

与 AGI 的宏大叙事形成鲜明对比的是 NeurIPS 大会的实际情况,数据揭示了研究领域的真正焦点:

  • 在提交的 5,630 篇论文中,只有两篇在标题中提到了 AGI。
  • 一项对 115 名与会研究人员的非正式调查显示,超过四分之一的人甚至不知道 AGI 是什么意思
  • 当一位研究人员被问及是否关注 AI 带来的社会问题时,他显得有些恼火,回应道:“这正是我们试图修复的问题。所以我们知道这些担忧。” 这暗示着,一线开发者关心的是具体的技术修复,而非抽象的哲学辩论。

AI 泡沫中的奢华与人才争夺

尽管对 AGI 的关注度在研究层面很低,但 AI 行业的繁荣和奢华却是显而易见的。

  • 人才战争: 大会是 AI 人才争夺的主要战场。顶级公司为吸引人才不惜重金,研究生的起薪可高达 “一百万,一百五十万” 美元(其中大部分是股权)。
  • 奢华的活动: 各种半秘密的、仅限邀请的派对在豪华场所举行,例如在航空母舰上或高级牛排馆里。Meta 和新兴的 AI 研究所在同一地点楼上楼下举办活动,员工们甚至希望被对方挖走以获得更好的待遇。

这种巨大的开销与行业实际的盈利能力形成了鲜明对比。例如,OpenAI 据报道预计其巨额亏损将持续到 2030 年。这不禁让人发问:这个行业还能让这种奢华持续多久?当泡沫破裂时,经济会发生什么?

谁从这种叙事中受益?

作者最终提出了一个尖锐的问题:当行业领袖们在辩论超级智能的遥远危险时,谁是真正的受益者?

答案似乎很明确。通过将公众的注意力引向一个充满猜测性、距离遥远的科幻威胁,行业可以有效地转移人们对当前技术所造成的实际、紧迫伤害的关注。当二十多岁的年轻人考虑着七位数的录用通知,而行业的百万富翁名流们在辩论超级智能时,这种关于未来的宏大叙事似乎最有利于那些正从当前的 AI 热潮中获利的人。