Synth Daily

司法部称,Anthropic 不可信,不能托付作战系统

美国司法部将 AI 开发商 Anthropic 认定为“供应链风险”,指控其在军事系统中存在潜在的破坏与安全威胁。Anthropic 对此发起诉讼,认为政府滥用权力且违反了第一修正案,导致其面临数十亿美元的合同损失。政府则坚持认为,由于 Anthropic 的内部道德准则可能干扰军事行动,因此无法将其托付于作战基础设施,并正寻求转向其他 AI 供应商。

核心矛盾:国家安全与企业权利的碰撞

美国政府已正式将 Anthropic 列为供应链风险名单,此举实际上禁止了该公司获得国防合同

  • 数十亿美元的损失:Anthropic 辩称,这一标签将导致其今年失去预期的巨额收入。
  • 法律反击:该公司指控政府超越权限,并以此作为报复手段。
  • 政府的回应:司法部律师表示,第一修正案并不赋予公司单方面向政府强加合同条款的权利,并预测 Anthropic 的诉讼将会失败。

司法部的担忧:不可控的“红线”

政府的核心疑虑在于,Anthropic 可能会因为自身的“企业红线”(如道德或安全准则)而在关键时刻干预军事系统的运行。

“国防部担心,如果 Anthropic 自认为其企业‘红线’被逾越,可能会尝试禁用其技术,或在作战过程中预先改变模型的行为。”

  • 潜在破坏风险:国防部长认为,Anthropic 的人员可能会破坏、恶意引入多余功能,或干扰国家安全系统的正常设计与运行。
  • 作战不可信:在高度紧张的战斗行动中,政府认为不能依赖一个可能会因内部策略而随时“掉线”或改变逻辑的 AI 系统。

Anthropic 的立场:反对滥用与技术限制

双方的冲突源于对 Claude AI 模型使用限制的长期博弈。

  • 伦理界限:Anthropic 坚持其模型不应被用于对美国人进行广泛监视,且目前的技术尚不足以支撑完全自主的武器系统。
  • 报复性质:法律专家指出,政府将 Anthropic 列为风险名单,更像是因为该公司限制五角大楼使用其技术而进行的非法报复

行业连锁反应与后续走向

五角大楼已经开始着手去 Anthropic 化,并寻找替代方案。

  • 替代供应商:国防部正在与 Google、OpenAI 和 xAI 合作,试图替换目前正在使用的 Claude 模型。
  • 过渡难题:由于 Claude 目前是唯一获准在某些分类系统和高强度战斗操作中使用的 AI 模型,政府承认无法立即“关掉开关”
  • 广泛支持:尽管政府态度强硬,但目前包括微软、AI 研究人员、联邦工会及前军事领导人在内的多方力量均表态支持 Anthropic。

法院将于下周二举行听证会,决定是否在诉讼期间允许 Anthropic 恢复正常的业务往来。