Synth Daily
Anthropic意外泄露最强AI模型“Claude Mythos”:推理与安全能力实现质的飞跃
人工智能领军企业 Anthropic 最近遭遇了一次严重的意外。由于内容管理系统的配置疏忽,约 3000 份未公开的内部资料被暴露在互联网上,其中包括其尚未发布的顶级模型“Claude Mythos”(在内部也被称为 Capybara)的详细信息。这一模型被描述为公司史上最强大的工具,在代码编写、逻辑推理以及网络安全领域实现了“阶跃式”的性能提升。虽然这次泄露揭示了 Anthropic 的技术野心,但也引发了关于超强 AI 可能带来的新型网络攻击风险的讨论。目前,Anthropic 已修复该漏洞,并证实正与少数早期客户秘密测试这一新模型。
要点
- 1泄露揭示了代号为“Claude Mythos”或“Capybara”的新级别模型,其性能全面超越现有的顶级模型 Opus 4.6。
- 2该模型在软件编码、学术推理和网络安全测试中取得了极高得分,被公司内部称为“质的飞跃”。
- 3此次事件源于内容管理系统(CMS)的默认公开设置,属于人为配置疏忽,而非 AI 系统的技术漏洞。
视角
Anthropic 官方发言人
新模型是我们在能力上的一次重大突破,也是迄今为止我们构建的最强模型。考虑到其能力的强大,我们将采取极其谨慎的测试和发布策略。
网络安全研究员
Mythos 模型展现出的寻找未知代码漏洞的能力是双刃剑。它能帮助防御者加固系统,但也可能被利用发动大规模、自动化的网络攻击。
行业观察家
即便是最顶尖的 AI 公司也会在基础的安全配置上栽跟头,这再次证明了人为疏忽在信息安全中的致命性。
历史背景
Anthropic 的模型序列一直以 Opus(最强)、Sonnet(均衡)和 Haiku(轻快)作为分级标识。在此次泄露之前,Opus 4.6 被认为是该领域的性能天花板。然而,新出现的“Capybara”级模型打破了这一架构,它不仅规模更大,且运行成本更高。
“Capybara 是一个全新的模型等级:它比我们迄今为止最强大的 Opus 模型更大、更智能。”
网络安全风险
泄露的博客草稿显示,Anthropic 对该模型可能引发的网络安全威胁表示极度担忧。Mythos 模型在寻找软件漏洞方面的表现远超目前市场上的任何其他 AI。这意味着黑客一旦掌握此类工具,其攻击效率将呈几何级数增长。
“该模型预示着即将到来的一波 AI 驱动的攻击浪潮,其寻找和利用漏洞的速度将远超人类防御者的应对能力。”
CEO 欧洲峰会
除了技术文档,泄露的资料中还包含一份关于在英国举行的受邀制 CEO 峰会的详细计划。Anthropic 计划在一处 18 世纪的庄园酒店,向欧洲最具影响力的商业领袖和政策制定者展示尚未公开的 Claude 能力,旨在说服大型企业更深入地集成其 AI 技术。
时间线
泄露事件发展脉络
- 1
2026年3月初
Anthropic 完成 Claude Mythos 模型的开发与训练,并向部分早期客户提供测试权限。
- 2
2026年3月26日
由于 CMS 配置错误,约 3000 份包含模型细节、内部草稿和高管行程的文件在无保护状态下暴露。
- 3
2026年3月26日晚
在媒体提醒下,Anthropic 紧急修复了漏洞并关闭了公开访问权限,随后发表声明承认新模型的存在。
Q&A
Q: 这次泄露是否涉及用户的私人数据或公司的核心架构?
A: Anthropic 表示,泄露的内容主要是用于宣传和发布的“内容草稿”,并未触及公司的核心基础架构、AI 训练系统或任何客户的敏感数据。
你知道吗?
虽然此次泄露是人为配置错误引起的,但讽刺的是,现在市面上类似 Claude Code 的 AI 编程工具正让此类漏洞变得更容易被发现。AI 工具可以自动扫描、模式匹配和关联海量的公开资产,让那些隐藏在“隐蔽 URL”下的秘密无处遁形。
来源
 | 独家:Anthropic承认测试全新AI模型,称其为能力上的“质的飞跃”,此前意外数据泄露暴露了该模型的存在 |
 | 独家揭秘:Anthropic未发布模型细节与仅限邀请的CEO峰会资料,因重大安全漏洞暴露在无保护数据中 |