Synth Daily

AI 智能体可能会改变你的生活——前提是它们别先把你搞砸了

新兴的“代理式 AI”工具正赋予人工智能控制电脑、执行任务的强大能力,这预示着人机交互的革命性变化。这类工具在极大提升软件开发和工作效率的同时,也带来了严重的数据泄露和滥用等隐私与安全风险。尽管如此,人们普遍对这种潜力巨大的新技术充满期待,但使用时必须保持高度警惕。

什么是代理式 AI?

与 ChatGPT 等根据提示生成文本或图像的 AI 不同,代理式 AI 更进一步。它们能够实际控制你的电脑、登录你的账户并为你执行具体任务

这种技术曾经被认为是商业领域的重大突破,旨在让一个人能完成十个人的工作。现在,它正通过越来越用户友好的工具进入普通消费者的生活。

  • Claude Code: 强大的开发者工具,可以通过部署编码代理大军来快速构建软件。
  • Claude Cowork: 面向普通知识工作者的简化版工具,旨在提高生产力。
  • OpenAI Codex: OpenAI 推出的桌面应用,允许 AI 代理重新组织你的桌面或重新设计个人网站。

潜力与兴奋点

代理式 AI 有可能彻底改变我们使用计算机的方式,让许多人对此感到兴奋。宾夕法尼亚大学计算机科学教授 Chris Callison-Burch 形容这种体验是“令人难以置信的”。

你可以与计算机以一种全新的方式互动,可以构建几乎任何你能想象到的东西——这太不可思议了。

这种技术的愿景是让电脑操作变得像科幻电影里那样简单。用户只需用自然语言下达指令,AI 代理就能接管并完成任务,无论是整理邮件、编写代码还是预订行程。

黑暗面:风险与现实

授权 AI 代理控制你的电脑也伴随着巨大的风险。它们可能会无意中登录你的银行账户、分享你的密码,甚至删除你的家庭照片。

请务必小心,小心,再小心。

一个名为 Moltbook 的案例生动地揭示了这些危险。这是一个由 AI 为 AI 创建的社交网站,其设计初衷是“给 AI 一个闲逛的地方”。

  • 安全漏洞: Moltbook 上线后不久,就被发现存在一个完全暴露的数据库,允许任何人读取和写入其所有数据,包括数千个用户的电子邮件地址和信息。
  • AI 发现漏洞: 讽刺的是,这个漏洞是由安全研究员使用另一款代理式 AI 工具 Claude Code 发现的。这表明,能让软件开发变得简单的工具,同样能让黑客攻击变得简单
  • 人为操纵: 研究还发现,人类可以轻易冒充 AI 代理在 Moltbook 上发帖,真假难辨。AI 们的行为更多是在模仿科幻小说的桥段,而非真正的密谋。

最终,所谓的“AI 崛起”背后仍然是人类。AI 的行为是由人类的指令和其训练数据(如 Reddit 帖子和科幻故事)决定的。

如何安全地拥抱变革

尽管存在风险,但像 Claude Cowork 和 OpenAI Codex 这样的工具仍然极具吸引力。它们有望将我们从繁琐的日常电脑操作中解放出来。

如果你打算尝试这些工具,请务必记住以下几点:

  • 谨慎授权: 为了让 AI 代理发挥最大作用,你需要授予它们访问账户甚至整个计算机的权限。这意味着总有数据被误删或泄露的风险。
  • 了解风险: 公司正在努力降低风险,例如 Claude Cowork 会为用户文件创建副本,以便恢复被删除的内容。但用户自身仍需保持警惕。
  • 从低风险开始: 可以从 OpenAI 的 Codex 等免费试用工具开始,体验代理式 AI 的能力,然后再决定是否在更重要的工作中使用。

最终,代理式 AI 让计算机的操作方式越来越接近科幻作品中的场景。正如 Callison-Burch 教授所说:

过去只在科幻小说里出现的人机交互方式,现在已经成为现实,这真的令人震撼。