Synth Daily

Anthropic 是在限制 Mythos 的发布以保护互联网,还是在保护自己?

Anthropic 正限制其新 AI 模型 Mythos 的公开发布,表面理由是它在发现软件安全漏洞方面能力过强,可能被滥用于威胁全球网络安全。然而,这一举措背后也存在强烈的商业动机。通过仅向大型企业提供该模型,Anthropic 不仅能获得高价值的企业合同,还能有效阻止竞争对手通过“蒸馏”技术廉价复制其核心技术,从而在保护互联网安全的同时,也保护了自己的市场优势和商业模式。

以安全之名

Anthropic 声称,其最新模型 Mythos 在发现软件安全漏洞方面的能力远超前代,因此决定不向公众发布。

  • 该模型将仅提供给少数运营关键网络基础设施的大型企业,如 亚马逊网络服务 (AWS)摩根大通 (JPMorgan Chase)
  • 官方的说法是,这能让这些重要企业在潜在攻击者利用先进大语言模型发动攻击之前,提前修复漏洞。
  • 这种负责任、谨慎的推出方式,被认为是保护互联网安全所必需的。

现实可能更复杂

然而,一些行业专家和初创公司对 Mythos 的“不可替代性”提出了质疑,暗示 Anthropic 的动机可能不仅仅是出于安全考虑。

AI 网络安全实验室 Irregular 的首席执行官 Dan Lahav 指出,发现漏洞本身并不等同于真正的威胁:“我脑中始终有个问题,他们发现的东西是否真的能被有效地利用,无论是单个漏洞还是作为攻击链的一部分?”

  • 有AI网络安全初创公司 Aisle 表示,他们使用更小的开源模型,也成功复现了 Anthropic 所宣称的 Mythos 的大部分能力。
  • 这表明,网络安全可能并不依赖于某一个单一的“超级模型”,而是取决于具体的任务需求。

真正的商业动机:利润与护城河

更深层次的分析指向一个关键的商业策略:限制发布是为了保护商业利益。将顶尖模型限定在企业客户范围内,可以实现两个主要目标。

  1. 锁定企业合同:这种独家提供的方式为公司创造了稳定的高价值企业合同来源,因为只有大客户才能使用最先进的技术。
  2. 防止技术“蒸馏”:阻止竞争对手使用一种名为“蒸馏”的技术。该技术可以利用顶尖模型来廉价地训练出新的、有竞争力的大语言模型。

软件工程师 David Crawshaw 在社交媒体上直言不讳地指出:

“这只是个营销幌子,事实是顶尖模型现在被企业协议锁定了,小实验室无法再用它们进行蒸馏。等普通人能用上 Mythos 时,又会有新的、仅限企业使用的顶尖版本出现。这种循环通过将蒸馏公司降为二流,确保了企业资金的持续流入。”

打击“蒸馏”已成行业共识

“蒸馏”直接威胁到 Anthropic 这类前沿实验室的商业模式,因为后者依赖于巨大的资本投入来获得技术优势。

  • 前沿实验室正在对“蒸馏”采取更强硬的立场。Anthropic、谷歌和 OpenAI 据报道已联手识别并阻止使用其模型进行蒸馏的行为。
  • 阻止“蒸馏”本身就是一个值得努力的目标,而选择性发布恰好成为一种巧妙的实现方式。
  • 最终,Anthropic 的这一策略,既是一种负责任的技术推广方式,也是一个在保护互联网的同时,保护其自身商业底线的聪明举动。