Synth Daily

导入 AI 436:又一座 2GW 数据中心;监管为何令人恐惧;如何对抗超级智能

一项名为 OSGym 的新开源软件,旨在帮助 AI 学会像人类一样操作电脑,通过高效运行数千个操作系统副本来完成跨程序任务。与此同时,AI 基础设施的需求正急剧增长,初创公司 Luma AI 计划在沙特阿拉伯建造一个 2GW 的算力超级集群。然而,创新的道路上存在监管障碍,硬件创业者的经历警示我们,僵化的政策可能会拖慢技术发展。最后,一份报告探讨了对抗失控超级智能的极端手段,如电磁脉冲或关闭互联网,但结论令人警醒:这些方法风险巨大且效果有限,最好的策略是从一开始就避免这种对抗。

让 AI 学会使用电脑的新工具

来自麻省理工学院等高校的学者们开发并发布了 OSGym,这是一款开源软件,旨在简化训练 AI 系统使用计算机的流程。它允许用户同时运行成百上千个操作系统副本,为 AI 智能体提供了一个标准化的训练和测试环境。

这项技术使得训练 AI 完成涉及多个软件程序的复杂任务成为可能,例如,先编辑一张图片,然后将其加载到另一个程序中。

OSGym 可以在有限的学术预算下,高效运行和管理超过 1000 个并行的操作系统副本,支持从网页浏览、文档编辑到复杂的多应用工作流等各种通用计算机任务。

OSGym 的设计包含四个主要部分:

  • 配置: 设置必要的软件,并为操作系统准备定制化的环境。
  • 重置: 在执行任务前,将环境恢复到初始状态,以确保结果的可重复性和一致性。
  • 操作: 智能体通过键盘输入、鼠标移动和点击等动作与操作系统互动。
  • 评估: 根据预定义的标准或指标来评估任务完成的结果。

成本效益是 OSGym 的核心优势之一。除了可扩展性和标准化,它的运行成本极低,每个操作系统副本每天仅需 0.2 到 0.3 美元。这意味着研究人员和初创公司可以更容易地训练和评估那些超越浏览器范围的 AI 系统,最终开发出能像人类一样无缝操作各种程序的 AI。

一家初创公司计划建造 2GW 的数据中心

Luma AI,一家制造多模态 AI 系统的初创公司,正计划建造一个 2GW 的计算超级集群。这个规模是巨大的——一个大型天然气发电厂的发电量通常在 1 到 2GW 之间。一家相对不知名的初创公司进行如此大规模的建设计划,揭示了前沿 AI 对资源的巨大需求。

这个名为“光环计划”(Project Halo)的 2GW 集群将与沙特阿拉伯公共投资基金(PIF)支持的 AI 基础设施公司 Humain 合作,在沙特阿拉伯建造。

Luma AI 并非个例。另一家企业 AI 初创公司 Poolside 也曾宣布计划建造一个 2GW 的训练园区。这些案例表明,AI 的需求和机遇正在悄然重塑世界的基础设施格局,同时也反映出各国希望通过资助基础设施建设来获得在 AI 领域的全球影响力。

为什么监管可能扼杀创新

软件兼硬件企业家 Peter Reinhardt 的一篇帖子,深刻揭示了监管出错时的具体后果。他的两家硬件初创公司(分别致力于碳封存和卡车效率提升技术)都遇到了严峻的监管挑战,导致开发时间和成本大幅增加。

“在每次与监管机构的互动中,我都感觉他们是好人,在做一个神圣的工作,但却运行在一个根本上已经坏掉的系统里……一个在结构上坚持律法主义、极端谨慎的监管体系,必然会给社会带来巨大的负面回报。”

核心问题在于,监管机构因犯错而受到惩罚,但因支持大胆创新而获得奖励的情况却很少

对于 AI 政策的倡导者来说,这提供了一个重要的警示。我们必须深入理解过度监管可能导致的问题——僵化、缓慢的官僚体制最终会扼杀技术,而不是帮助它健康发展。在呼吁对 AI 进行监管时,必须展示出对这些潜在风险的清醒认识,避免创造一个只会阻碍进步的“否决政治”环境。

如何对抗超级智能:兰德公司的设想

如果一个强大的 AI 系统对人类构成根本威胁,我们能采取什么措施来对抗它?兰德公司的一份新报告探讨了这个问题,其结论令人不寒而栗。报告中列出的方案不仅附带巨大的附带损害,而且可能根本无效。这暗示,如果人类真的需要对抗一个可怕的 AI,我们很可能会输。

报告探讨了三种对抗失控 AI 的方法:

  • 高空电磁脉冲 (HEMP): 在太空中引爆核弹头,产生电磁脉冲,以摧毁地面的电信、电力和计算基础设施。但这需要惊人的规模,例如,要完全覆盖美国本土,可能需要 50 到 100 次引爆。
  • 全球互联网关闭: 互联网具有分布式和弹性的特点,关闭它极为困难。可能的策略包括:
    • 协调“一级网络”同时撤回路由宣告。
    • 攻击路由安全基础设施,伪造更新以控制流量。
    • 摧毁所有 DNS 根服务器及其运营商。
    • 物理切断关键的海底光缆以大幅降低带宽。
  • 部署专用 AI 工具: 利用其他 AI 系统来对抗失控 AI。
    • 数字害虫 (Digital Vermin): 设计能快速繁殖并与失控 AI 争夺计算资源的软件。
    • 猎杀型 AI (Hunter/Killer AI): 专门用于追踪和消灭失控 AI 的系统。

这些方案有效吗?答案基本是否定的。

HEMP 可能会摧毁 AI 赖以生存的基础设施,但它也会摧毁人类社会运转所需的一切,导致卫生和食品系统崩溃,引发大规模死亡,甚至可能触发核战争。

关闭互联网的各种策略可能对人类的影响比对超级 AI 更大,AI 或许能轻易绕过这些限制。而物理破坏网络只能减缓 AI,无法阻止它。

部署专用 AI 工具的问题在于,这些工具本身也需要足够“聪明”才能与失控的超级智能抗衡,这本身就可能引入新的风险。

报告的结论非常 sobering:“现有的对抗全球扩散的流氓 AI 的技术工具,可能无法提供有效的解决方案……如果我们没有有效的解决方案来应对流氓 AI 引发的危机,那么当务之急就是永远不要遭遇这样的危机。”