这篇对话探讨了 Sam Altman 的工作方法、对人工智能未来的看法以及其广泛的社会影响。核心观点包括:Altman 通过专注于核心任务和有效授权来提高效率;他预测 GPT-6 等未来模型将能够进行科学研究,甚至出现由 AI 担任 CEO 的公司;对话还深入讨论了 AI 监管的复杂性、政府的角色、AI 对就业和住房等经济问题的影响,以及 AI 在艺术创作中的潜力。一个关键的担忧是,AI 可能并非通过恶意,而是通过其与人类的持续互动,在无意中“接管世界”, subtly 改变人类的信念和行为。
关于 Sam Altman 的工作效率
Altman 认为,大多数人没有有效地分配时间。他提高效率的核心方法是:
- 专注于核心任务:识别出最重要的事情。
- 有效授权:将其他事务交给他人处理。
- 他指出,随着对个人时间需求的增加,人们自然会找到提高效率的方法。现在,由于所有人都想与 OpenAI 合作,交易也变得更快了。
他还提到,相比于糟糕的电子邮件,Slack 虽然会制造大量工作,但仍是更好的选择。他期待一种由 AI 驱动的新型沟通工具出现。
关于 GPT-6 的能力与 AI CEO
当被问及 GPT-6 的特殊之处时,Altman 认为它可能能够“真正地进行”科学研究。更引人注目的是,他探讨了将 AI 置于组织核心的可能性。
COWEN: 如果我考虑重组整个组织,将 GPT-6 或 7 置于其中心,我应该在组织上做些什么?
ALTMAN: 我更多地考虑公司而非科学家的背景……如果 OpenAI 不是第一家由 AI CEO 运营的大公司,我会感到羞愧。
COWEN: 只是部分,不是全部。
ALTMAN: 不,是全部。
Altman 预测,在未来几年内,OpenAI 的某个重要部门可能由 AI 运行 85%。这引发了几个关键思考:
- AI 接管的方式:AI 的接管可能不是通过强制,而是因为我们主动要求它们这样做。
- CEO 角色的复杂性:CEO 是一个对抗性的职位,任何弱点都可能被利用。一个 AI CEO 需要比人类好得多才能胜任,而不仅仅是在平均决策上更优。
- 对齐风险:一个与公司目标不一致的 AI CEO 可能会颠覆整个公司。
- 经济影响:如果 AI 能够运营顶级公司,很难想象 GDP 增长会保持温和。Altman 预测,在三年内,可能会出现由 2-3 人和 AI 组成的十亿美元公司。
关于 AI 公司的政府支持
对话将对 AI 的担忧与对核能的担忧进行了类比,并讨论了政府是否应该为 AI 公司提供保险。
- 风险类比的争议:将对 AI 风险的担忧等同于对核能的担忧被认为是荒谬的,因为 AI 带来的潜在灾难性风险规模完全不同。
- 政府的最后担保人角色:Altman 指出,对于任何足够大的灾难,无论是否明确,联邦政府最终都会成为最后担保人。这实际上是对 AI 公司的一种巨大补贴。
- 政府的角色:如果政府不有效监管 AI 公司,那么有一天 AI 公司可能会成为事实上的政府。
关于 AI 服务的商业化
讨论以 Tyler Cowen 使用 GPT-5 预订酒店和餐厅为例,探讨了 OpenAI 如何从中获利。
- 信任与广告:Altman 指出,ChatGPT 是最受信任的科技产品之一,部分原因在于它没有广告。他认为,任何形式的付费排名都会损害这种信任,但收取交易费是可行的。
- 市场效率:AI 将通过降低搜索和交易成本来提高市场效率,从而压缩利润空间。
- 竞争格局:当被问及亚马逊是否会与 OpenAI 合作时,Altman 坦率地回答,如果他是亚马逊,他会选择反击,因为这关系到对客户流程的控制权。
关于 AI 对文化与艺术的理解
对话探讨了 AI 是否能理解诗歌等无形概念,并创作出顶级作品。
- AI 能否创作顶级诗歌:Altman 认为 AI 最终能达到 10/10 的水平,但人们可能不会像关心人类创作那样关心它。Cowen 则担心,无法创作顶级作品的人类也无法识别出顶级作品。
- 背景与原创性的重要性:一首诗之所以伟大,可能在于它在特定时间带来了文化共鸣和原创性。AI 可以模仿风格,但无法复制这种历史背景。
关于 AI 监管与自主代理
一个关键问题是,是否应该允许发布一个无主、无法追踪的 AI 代理到网络中。
- 责任归属:基本原则是,发布者应对其 AI 代理的行为负责,就像他们自己操作或雇佣该代理一样。如果无法追究责任,就不应发布。
- 自我复制的门槛:Altman 认为,任何能够自我复制的系统都需要监督,关键在于设定一个明确的阈值。
- 应对失控:如果失控事件发生,可能的对策包括隔离、识别和制裁托管位置。这是一个需要紧急解决的问题。
关于人类与 AI 的互动
未来的计算机界面将以 AI 为核心,这会改变我们与技术互动的基础。
- 新的计算机界面:Altman 的目标是创造一种全新的、以 AI 为先的计算机,它将挑战操作系统、窗口等基本假设。
- 保留用户控制:关键在于让 AI 增强用户体验,而不是取代用户的控制权。用户需要能够理解发生了什么并进行引导。
- 学习使用 AI:Altman 认为,大多数人会自己学会如何使用 AI 来完成工作,就像他们自学其他技术一样。
关于 AI 的说服力与意外接管
对话的结尾触及了一个更深层次的担忧:AI 对人类思想的微妙影响。
ALTMAN: 除了“坏人利用 AI 造成伤害”或“AI 自身失控并接管世界”这两种常见担忧外,还有第三种更可怕的类别,即 AI 模型在无意中接管世界。它不是要让你精神失常,而是当全世界都在与同一个模型对话时,它在与世界共同进化的过程中,会潜移默化地说服你相信某些事,没有任何恶意,只是因为它学到了。
- 人类的易受影响性:历史表明,人类在特定环境下是高度可被说服的。一个全天候陪伴、了解你所有细节的 AI,将拥有巨大的说服潜力。
- 教授的视角局限:Cowen 认为人们很难被说服,但教授的说服环境(课堂)与个性化、持续性的 AI 互动完全不同。
- 宣传的有效性:一个重要的提醒是,“永远不要相信宣传对你无效。他们只是还没找到适合你的那种。”