Synth Daily

埃隆·马斯克在 OpenAI 审判中的唯一人工智能专家证人担忧 AGI 军备竞赛

这起诉讼的核心是关于人工智能(AI)安全担忧与商业利益之间的冲突。埃隆·马斯克试图阻止 OpenAI 转向营利模式,理由是其违背了最初专注于AI安全的慈善初衷。法庭上,唯一的AI技术专家证人斯图尔特·罗素强调了AI的现实风险,但其更深层次的担忧被限制。这起案件揭示了AI领域的根本矛盾:创始人们一方面警告AI的危险,另一方面又因对算力和资本的需求而推动商业化,最终导致了内部分裂和如今的“军备竞赛”。

AI 安全与商业利益的冲突

埃隆·马斯克的律师们主张,OpenAI 最初是一个专注于 AI 安全的慈善机构,但在追逐利润的过程中迷失了方向。为了证明这一点,他们引用了创始人们早期的邮件和声明,这些内容都强调需要建立一个公共精神的组织来制衡谷歌的 DeepMind。

此案的一个关键潜台词是:我们应该在多大程度上认真对待关于 AI 风险的警告?

专家的警告

加州大学伯克利分校的计算机科学教授斯图尔特·罗素是法庭上唯一直接讨论 AI 技术的专家证人。他的任务是为法庭提供 AI 背景知识,并证实这项技术确实危险到需要我们担忧。

罗素教授指出了 AI 发展带来的一系列风险:

  • 网络安全威胁。
  • AI 行为与人类意图的失配问题
  • 通用人工智能(AGI)发展中的“赢者通吃”特性。

他明确表示,追求通用人工智能(AGI)和确保其安全性之间存在内在的紧张关系。尽管罗素对无约束 AI 带来的存在性威胁有更深层次的担忧,但在 OpenAI 律师的反对下,法官限制了他在这方面的证词。

OpenAI 内部的根本矛盾

几乎所有 OpenAI 的创始人都曾极力警告 AI 的风险,但同时他们也强调其益处,并试图尽快构建 AI。这背后暴露了一个清晰的问题:OpenAI 在成立后逐渐意识到,若要成功,它需要巨量的计算资源投入

这笔钱只能来自营利性投资者。

对通用人工智能(AGI)落入单一组织之手的恐惧,反而促使创始团队去寻求巨额资本。这一举动最终撕裂了团队,并催生了我们今天所见的军备竞赛——也直接导致了这场诉讼。

从诉讼到国家政策的辩论

同样的矛盾动态已经在美国国家层面重现。参议员伯尼·桑德斯推动一项法案,要求暂停数据中心的建设,其理由正是呼应了马斯克、萨姆·奥尔特曼等人表达过的 AI 恐惧。

然而,行业组织对此提出异议,指出不应只采纳科技亿万富翁们的恐惧言论,而忽略他们对未来的希望。现在,法庭也被要求做同样的事情:认真对待奥尔特曼马斯克论点的一部分,同时忽略那些对各自法律论证不利的部分。这凸显了在 AI 发展道路上,安全、商业和政治诉求之间复杂的博弈。