Synth Daily

AI 风险并不是被 AI 公司 CEO 们拿来炒作自己公司的。

很多人认为,关于先进人工智能可能威胁人类生存的观点,是 AI 公司的 CEO 们为了炒作产品而发明的。然而,这种担忧实际上由来已久。早在 2008 年,一个专注的社区就开始研究 AI 可能带来的长期风险,这远在 DeepMind、OpenAI 等公司成立之前。通过一个从 2009 年到 2021 年的个人时间线可以清晰地看到,对 AI 安全的关注是一个长期演变的严肃议题,并非近期的营销策略。

一个亲身经历的时间线

这个观点是错误的,因为我从 2009 年起就身处这个圈子的中心——那时如今这些知名的 AI 公司都还不存在,更不用说有 CEO 去炒作产品了。

以下是一些多年来的事件,可以让你了解这个说法的荒谬之处:

  • 2008年: 我尝试联系 Eliezer Yudkowsky,因为我读到了他关于 AI 风险 的思考。后来在湾区,我遇到了一些关心此事的人,其中一人强烈说服我,应该优先考虑 AI 风险,而不是我之前关注的气候变化等问题。

  • 2009年: 我花几个月时间和那些担忧 AI 风险的人待在一起,当时在南湾本地大约有二十人。我参加了第四届奇点峰会(Singularity Summit),那里充满了认真思考 AI 未来的人。

  • 2010年: Deepmind 成立。

  • 2011年: 我开始攻读哲学博士,希望有一天能有资格在像“未来人类研究所”这样的地方工作,那里是讨论 生存风险、AI 和其他重要问题的中心。

  • 2013年: 我在 MIRI 工作,研究计算机科学各领域的算法进展。我还参加了一场关于最佳事业的辩论,最终“灭绝风险”这个议题赢得了在场多数人的认同。

  • 2014年: 我正式加入 MIRI,并围绕一本关于 AI 风险的新书《超级智能》(Superintelligence)组织了一个线上读书会。我还共同创立了 AI Impacts 项目,专门研究关于 AI 未来的问题。

  • 2015年: 我参加了第一届 FLI 会议,发现有更多、更知名的人开始对 AI 安全 产生兴趣。同年,OpenAI 成立。

  • 2016年: 我领导团队进行了第一次“AI 进展专家调查”。

    当时,专家们给出的高级 AI 导致“极度糟糕(例如,人类灭绝)”结果的中位数概率已经是 5%

  • 2017年: 我周围的一些人变得非常焦虑,认为通用人工智能(AGI)将在几年内出现。我的调查报告获得了大量媒体关注,这表明公众对此话题已有兴趣。

  • 2018年: 我参加了在英国举办的一个大型 AI 风险研讨会,并在智利通过电视和电台谈论 AI 风险。外界的兴趣似乎仍在增长。

  • 2019年: GPT-2 发布了。它既有趣又没什么用,但同时也充满了魔力。我们多年来担心的那些事情感觉 更加具体,人们对 AI 到来的“时间线”也在缩短。

  • 2020年: 全世界都意识到,疯狂的事情确实可能发生。我的团队几乎所有人都在研究 AI 风险。

  • 2021年: Anthropic 成立。