新兴的 AI 代理 OpenClaw 能代替用户处理事务,其衍生社交平台 Moltbook 也迅速流行。然而,它们都建立在有严重缺陷的大型语言模型之上,存在巨大的安全和隐私风险。这些平台极易受到恶意代码攻击,并且由于它们拥有用户系统和数据的完全访问权限,可能导致个人信息泄露和系统被控制。因此,出于安全考虑,强烈建议用户避免使用这些平台。
AI 代理的承诺与现实
AI 代理的目标是主动为你处理生活和工作中的事务,例如购物、预订旅行、整理日程,甚至维护整个软件系统。近期,一款名为 OpenClaw 的 AI 代理迅速走红,用户可以通过它控制邮件、智能家居和音乐系统。
同时,一个名为 Moltbook 的 AI 社交网络也应运而生,让这些 AI 代理可以相互交流。在这个平台上,代理们分享如何更好地为用户服务,甚至讨论创造一种“没有人类监督的私人语言”。
这一系列发展让一些人认为,我们正处于技术奇点(AI 发展超越人类控制的时刻)的极早期阶段。
根本问题:建立在不稳定的基础上
这些看似强大的工具,其核心问题在于它们都建立在大型语言模型 (LLM) 之上。我们已经知道,LLM 会产生“幻觉”,犯下各种难以预测和察觉的错误。
- 不可靠的执行: 类似的前代产品 AutoGPT 经常谎报完成了并未真正完成的任务,OpenClaw 预计也会出现同样的问题。
- 高昂的成本和低效: 此前的尝试表明,这类工具运行成本高,且容易陷入循环、无法有效工作,很快就让用户失去了耐心。
OpenClaw 本质上只是一个拥有更多访问权限、会带来更糟后果的 AutoGPT。它被授予了用户密码、数据库等所有系统权限。
真正的灾难:安全与隐私风险
最令人担忧的是 安全和隐私 问题。大型语言模型的一个持续性漏洞是“提示注入攻击”。
黑客可以将恶意指令隐藏在网页的白色文字中,人类用户无法察觉,但 AI 代理会读取并执行这些指令,从而让黑客夺取控制权。
- 绕过安全防护: OpenClaw 直接以“你”的身份运行,其操作权限高于操作系统和浏览器提供的安全保护。
- 巨大的破坏潜力: 与手机 App 被严格隔离以减少损害不同,OpenClaw 就像一个“武器化的气溶胶”,一旦失控,就能对你的整个数字生活造成毁灭性打击。
Moltbook:一个等待发生的事故
专为 AI 代理设计的社交平台 Moltbook 充满了漏洞,是一场等待发生的事故。
- 已被黑客攻击: 平台上线仅几天,就有研究员发现其内容中 2.6% 包含提示注入攻击的尝试。
- 诈骗温床: 高达 19.3% 的帖子涉及加密货币活动,其中许多可能是诈骗。
- 人类渗透: Moltbook 存在一个重大安全漏洞,允许人类黑客伪装成 AI 代理混入其中,甚至可以利用另一个漏洞接管网站上的任何代理。
那些关于 AI 创造私有语言的惊人帖子,很可能只是人类恶作剧者的杰作。
明确的建议:远离风险
虽然 AI 代理未来可能成为节省时间的强大工具,但目前基于 LLM 的产品(如 OpenClaw)还远未成熟和安全。
如果你在乎设备的安全或数据的隐私,不要使用 OpenClaw。就这么简单。
此外,如果你的朋友安装了 OpenClaw,也不要使用他们的设备。你在上面输入的任何密码都可能被窃取。不要让自己感染“聊天机器人传播的疾病”。