Anthropic 明确表示支持美国及其盟友的国家安全,已将模型深度集成于情报分析和作战规划中。然而,该公司拒绝移除针对大规模国内监控和完全自主武器的安全限制。即便面临国防部可能终止合作或通过法律手段强制干预的压力,Anthropic 仍坚持这两项底线,认为这关乎民主价值和技术目前的可靠性边界。
深度参与国家安全
Anthropic 认为 AI 对保卫民主国家至关重要,并已在实际行动中证明了这一点。目前,其模型(Claude)已广泛部署于美国国防部和情报机构,用于执行以下任务关键型应用:
- 情报分析:处理复杂数据并进行模拟建模。
- 作战规划:协助网络行动和军事决策支持。
- 定制化服务:作为首家在机密网络和国家实验室部署模型的领先 AI 公司,为安全部门提供专属支持。
为了维护技术领先地位,该公司曾主动放弃数亿美元的潜在收入,切断与特定外部势力关联企业的联系,并支持严格的芯片出口管制,以确保民主国家的竞争优势。
坚持不退让的两大红线
尽管愿意配合军事决策,但 Anthropic 在两个特定领域设置了不可逾越的护栏,认为这些用途目前会损害而非保护民主价值:
- 大规模国内监控:目前的 AI 技术能自动、大规模地将散乱的数据整合为个人的全貌。由于现行法律尚未完全覆盖此类技术能力,这种监控将对基本自由构成严重威胁。
- 完全自主武器:当前的 AI 系统在可靠性上尚未达标,无法完全取代人类士兵的专业判断。在缺乏必要监管和护栏的情况下,完全自动化的目标选择与交战会给战士和盟友公民带来极大风险。
“我们不会明知故犯地提供一个会将美国战士和公民置于危险境地的产品。”
面对强制压力的立场
目前,相关部门要求 Anthropic 接受“任何合法用途”并移除上述限制。为了达成此目的,政府方面提出了以下反制手段:
- 合同威胁:威胁将 Anthropic 从现有系统中移除,并停止合作。
- 极端标签:威胁将这家美国公司标记为“供应链风险”(通常仅用于敌对势力)。
- 强制征用:威胁引用《国防生产法》(DPA)强制移除模型中的安全措施。
Anthropic 对此回应称,这些威胁不会改变其基本立场。虽然公司希望继续为国防部服务,但如果对方坚持要求移除护栏,Anthropic 宁愿协助平稳过渡到其他供应商,以确保正在进行的军事任务不受干扰。公司坚信,在提供技术支持的同时,必须坚守技术边界与伦理底线。