Synth Daily

AI科学家实验室探秘

一家名为 Periodic Labs 的公司正致力于打造能够自主进行科学实验的“AI科学家”和自动化实验室,目标是加速材料科学等领域的发现,例如研发高温超导体。与此同时,另一项研究揭示了AI带来的生物安全风险:微软的测试发现,现有的DNA合成安全软件无法有效识别由AI设计的危险蛋白质基因,这暴露了当前防护体系中的严重漏洞。

打造自主进行科学实验的 AI 科学家

Periodic Labs 的目标是创造一个 AI 科学家。科学的运作方式是提出猜想,进行实验,然后从结果中学习。为了创造新知识,光有智能是不够的,还需要将想法与现实进行验证。

因此,该公司正在建造 AI 科学家以及供其操作的自动化实验室。

自动化实验室是其核心策略,原因如下:

  • 提供海量高质量数据:每次实验都能产生千兆字节(GB)级别的数据,这些数据在别处无法获得。
  • 记录宝贵的失败结果:这些通常不会被发表,但对学习至关重要。
  • 赋予 AI 行动能力:让 AI 不仅能思考,还能直接在现实世界中进行验证。

AI 可以一年 365 天、一天 24 小时地工作,通过控制实验室实现快速反馈。虽然科学实验比下棋更开放,但自 2017 年 AlphaZero 击败世界冠军以来,AI 的能力已大幅增长。

加速科学发现的潜力

一个具体目标是发现比现有材料工作温度更高的超导体。这方面的重大进展可能帮助我们创造下一代交通工具,并建设损耗极低的电网。

如果我们能实现材料设计的自动化,就有可能加速摩尔定律、太空旅行和核聚变的发展。

该公司的创始团队曾参与创建 ChatGPT、DeepMind 的 GNoME 等重要项目,在自动化物理实验室和材料发现领域拥有丰富经验。

AI 带来的生物安全漏洞

AI 也可被用于生成危险的蛋白质,如蓖麻毒素,而现有的防护措施效果不佳

微软的生物工程师进行了一项“红队”演习,模拟生物恐怖分子,使用 AI 工具设计出能够模仿致命毒素的蛋白质数字蓝图。随后,他们尝试从合成核酸的公司订购这些蛋白质对应的 DNA 序列,以测试生物安全实践中的薄弱环节。

关键的防护措施失效了。

研究报告指出,DNA 供应商用于标记有害序列的筛选软件,未能捕获许多由 AI 设计的基因

  • 其中一个筛选工具错过了超过 75% 的潜在毒素