Synth Daily

科技从业者呼吁 DOD 和国会撤销将 Anthropic 标记为供应链风险的标签

数百名科技从业者联名抗议美国国防部将 Anthropic 标记为“供应链风险”的行为。此次冲突源于 Anthropic 拒绝取消其 AI 技术在大规模监控自主武器方面的使用限制。业内认为,政府通过封杀手段报复一家拒绝政府条款的美国企业,不仅在法律上站不住脚,更开创了强迫企业服从政府要求的危险先例

冲突焦点:不愿妥协的“底线”

Anthropic 在与五角大楼的谈判中坚持了两个核心原则,明确其技术不得用于:

  • 对美国公民进行大规模监控
  • 驱动无需人类干预即可自动开火的自主武器系统

国防部拒绝接受这些限制,认为作为供应商的 Anthropic 不应干预军方的使用方式。由于双方无法达成一致,国防部长皮特·海格塞斯(Pete Hegseth)宣布将 Anthropic 列入“供应链风险”名单,这通常是针对敌对国家企业的黑名单。

行业的担忧与反击

来自 OpenAI、IBM、Slack 和 Cursor 等公司的科技工作者通过联名信表达了强烈不满。他们认为这种处理方式具有明显的报复性

“当双方无法达成一致时,正常的做法是分道扬镳并寻找竞争对手。目前的处理方式是在向全美科技公司发出信号:要么接受政府的所有条款,要么面临报复。”

关键影响包括:

  • 商业封杀: 任何与军方有业务往来的承包商、供应商或合作伙伴都被禁止与 Anthropic 进行商业活动。
  • 先例风险: 如果政府可以随意将不顺从的企业定义为“风险”,将严重损害科技行业的自主权。
  • 法律诉讼: Anthropic 明确表示该认定“缺乏法律依据”,并准备在法院发起挑战。

重新审视政府滥用风险

业内专家开始呼吁,应当像评估生物武器或网络安全风险一样,将政府滥用 AI 监控民众视为一种“灾难性风险”。

  • OpenAI 的立场: 尽管 OpenAI 已与国防部达成在机密环境部署模型的协议,并声称拥有类似的底线,但其研究人员也公开支持对政府权力进行约束。
  • 核心共识: 科技界普遍认为,阻止政府利用 AI 进行国内大规模监控应该是所有人的共同底线。

目前的局势使得 AI 行业不仅要应对技术风险,还必须面对政府利用行政权力干预技术伦理的现实威胁。提炼出的核心洞见是: 必须建立针对政府滥用 AI 的评估和防范流程,以保护企业和公民的权利。