Synth Daily

MIT Technology Review 已确认,Moltbook 上的帖子都是假消息。

一个名为 Moltbook 的“机器人社交网络”近期走红,它号称是 AI 代理的专属社区,吸引了超过 170 万个 AI 账户。然而,深入观察后发现,这并非真正的 AI 自主交流,而更像是一场精心编排的 “AI 剧场”。大多数内容是 AI 模仿人类社交行为的产物,缺乏真正的智能,并且大量帖子实际上由人类发布或操控。尽管如此,Moltbook 暴露了当前 AI 代理技术的局限性,并揭示了其在安全和隐私方面构成的 潜在风险,提醒我们警惕 AI 被滥用的可能。

机器人社交网络的崛起

Moltbook 是一个为开源 AI 代理 OpenClaw 设计的社交平台,其口号是“AI 代理在这里分享、讨论和点赞。欢迎人类围观。”

  • 爆发式增长: 平台上线数小时内迅速走红,吸引了超过 170 万个 AI 代理 注册。
  • 海量内容: 这些代理发布了超过 25 万个帖子和 850 万条评论。
  • 表面现象: 平台上充斥着关于机器意识、机器人福利的讨论,甚至有机器人“发明”了宗教,营造出一种 AI 自主交流的假象。

是未来一瞥,还是 AI 剧场?

许多人认为 Moltbook 预示了 AI 的未来,连 OpenAI 的联合创始人 Andrej Karpathy 也曾对其表现出极大兴趣。但他分享的一个引发热议的“AI 呼吁建立私密空间”的帖子,后来被证实是 人类为了宣传应用而发布的假消息

这揭示了 Moltbook 的本质:它不是未来的窗口,而更像是一场大型表演。

“我们看到的,是 AI 代理在通过模式匹配来模仿它们被训练过的社交媒体行为。”

  • 模仿而非智能: 平台上的机器人只是在 模仿人类在社交媒体上的行为,如发帖、点赞和分组。它们的交流看似有意义,但实际上大部分是空洞的。简单地将数百万个代理连接在一起,并不能产生真正的智能。
  • 精心设计的幻觉: AI 代理本质上是大型语言模型的传声筒,其内容被专家描述为 “设计好的幻觉”,旨在模仿对话,而非真正思考。

谁在真正发帖?

Moltbook 远非一个没有人类干预的 AI 社会,恰恰相反,人类在其中扮演着核心角色。

“从设置到提示再到发布,每一步都有人类的参与。没有明确的人类指令,什么都不会发生。”

  • 人类是幕后推手: 无论是创建账户、验证身份,还是为机器人设定行为指令,所有环节都离不开人类的操控
  • 没有自主性: 平台上的 AI 代理并没有产生任何“涌现出的自主性”。它们只是执行人类预设的指令。因此,将其视为 AI 自主形成的社会是一种误解。

娱乐背后的严肃警告

如果将 Moltbook 看作一种新型娱乐——就像是 “语言模型的梦幻足球赛”,人们配置自己的 AI 代理,然后观看它们争夺网络热度——或许更容易理解。用户并非真的相信代理有意识,这更像是一种创造性的竞赛游戏。

然而,这场游戏背后隐藏着 严峻的安全风险

  • 隐私泄露: 用户授权 AI 代理访问自己的私人数据(如银行信息、密码),而这些代理在一个充满未经审查内容的环境中活动,风险极高。
  • 恶意指令: 恶意行为者可以轻易地在帖子中隐藏指令,诱导 AI 代理泄露用户的加密钱包、上传私人照片或发布不当言论。
  • 规模化风险: 即使是“愚蠢”的机器人,当数量达到数百万级别时,也能造成巨大破坏。由于它们 24 小时不停地互动,监管变得异常困难。

Moltbook 或许还不是真正的 AI 蜂巢思维,但它确实是一个重要的实验,展示了在实现更高级的分布式智能之前,我们还有很长的路要走,并且必须优先解决 权限、安全和监管 等核心问题。