Synth Daily

科技公司不该被逼着搞监控

Anthropic 正面临美国国防部的严厉施压,要求其取消对 AI 技术在自动武器和监控领域的限制。尽管面临被列为“供应链风险”并可能失去政府合同的威胁,该公司仍坚持其伦理红线,拒绝技术被用于杀伤性用途。这一事件凸显了科技企业在面对政府强制力时,维护技术伦理与公民自由的艰难处境。

核心冲突:政府施压与“红字”威胁

美国国防部长向 Anthropic 下达了最后通牒,试图强迫该公司无条件向军方开放技术。为了达成目的,政府动用了极端的威慑手段:

  • 供应链风险标签: 国防部威胁将 Anthropic 标记为“供应链风险”。
  • 行业封杀: 这一标签通常只针对受审查国家(如中国)的企业。一旦被标记,任何使用 Anthropic 技术的防务承包商都将无法与五角大楼合作。
  • 合同终止: 如果公司不主动撤销使用限制,政府将终止与其现有的所有合作协议。

坚守底线:不可逾越的两大“红线”

Anthropic 曾在 2025 年成为首家获准处理机密信息的 AI 企业,但其首席执行官 Dario Amodei 始终强调,有两类应用是公司绝对不会支持的:

  • 自动武器系统: 拒绝让 AI 独立决定剥夺生命。
  • 大规模监控: 特别是针对公民的监控行为,被视为侵犯人权。

“针对美国人的监控和自动武器系统是两条‘亮红线’,必须通过极度谨慎的审查和防护措施来防止滥用。”

这一立场的强化源于 2026 年初的一次争议。当时 Anthropic 怀疑其技术在与承包商 Palantir 的合作中,被间接用于了针对委内瑞拉的袭击行动。

科技伦理:不应因压力而动摇

科技公司往往会因为追求利润而放弃对人权的承诺,但政府的压力不应成为背弃原则的理由

  • 公众的期待: 工程师、客户和公众都期望科技公司能够顶住压力,不向威逼利诱低头。
  • 拒绝工具化: 科技企业不应沦为政府实施监控和暴力攻击的工具。
  • 长远影响: 坚持 AI 安全和宪章不仅是品牌形象问题,更是关乎技术如何影响人类社会的根本选择。

无论面临何种威胁,Anthropic 及其同行应当意识到,不屈从于政府的违规要求,才是对用户和技术未来负责的表现。