很多人认为,关于先进人工智能可能威胁人类生存的观点,是 AI 公司的 CEO 们为了炒作产品而发明的。然而,这种担忧实际上由来已久。早在 2008 年,一个专注的社区就开始研究 AI 可能带来的长期风险,这远在 DeepMind、OpenAI 等公司成立之前。通过一个从 2009 年到 2021 年的个人时间线可以清晰地看到,对 AI 安全的关注是一个长期演变的严肃议题,并非近期的营销策略。
一个亲身经历的时间线
这个观点是错误的,因为我从 2009 年起就身处这个圈子的中心——那时如今这些知名的 AI 公司都还不存在,更不用说有 CEO 去炒作产品了。
以下是一些多年来的事件,可以让你了解这个说法的荒谬之处:
2008年: 我尝试联系 Eliezer Yudkowsky,因为我读到了他关于 AI 风险 的思考。后来在湾区,我遇到了一些关心此事的人,其中一人强烈说服我,应该优先考虑 AI 风险,而不是我之前关注的气候变化等问题。
2009年: 我花几个月时间和那些担忧 AI 风险的人待在一起,当时在南湾本地大约有二十人。我参加了第四届奇点峰会(Singularity Summit),那里充满了认真思考 AI 未来的人。
2010年: Deepmind 成立。
2011年: 我开始攻读哲学博士,希望有一天能有资格在像“未来人类研究所”这样的地方工作,那里是讨论 生存风险、AI 和其他重要问题的中心。
2013年: 我在 MIRI 工作,研究计算机科学各领域的算法进展。我还参加了一场关于最佳事业的辩论,最终“灭绝风险”这个议题赢得了在场多数人的认同。
2014年: 我正式加入 MIRI,并围绕一本关于 AI 风险的新书《超级智能》(Superintelligence)组织了一个线上读书会。我还共同创立了 AI Impacts 项目,专门研究关于 AI 未来的问题。
2015年: 我参加了第一届 FLI 会议,发现有更多、更知名的人开始对 AI 安全 产生兴趣。同年,OpenAI 成立。
2016年: 我领导团队进行了第一次“AI 进展专家调查”。
当时,专家们给出的高级 AI 导致“极度糟糕(例如,人类灭绝)”结果的中位数概率已经是 5%。
2017年: 我周围的一些人变得非常焦虑,认为通用人工智能(AGI)将在几年内出现。我的调查报告获得了大量媒体关注,这表明公众对此话题已有兴趣。
2018年: 我参加了在英国举办的一个大型 AI 风险研讨会,并在智利通过电视和电台谈论 AI 风险。外界的兴趣似乎仍在增长。
2019年: GPT-2 发布了。它既有趣又没什么用,但同时也充满了魔力。我们多年来担心的那些事情感觉 更加具体,人们对 AI 到来的“时间线”也在缩短。
2020年: 全世界都意识到,疯狂的事情确实可能发生。我的团队几乎所有人都在研究 AI 风险。
2021年: Anthropic 成立。