欧洲掀起新一轮“反隐私”战争

欧盟旨在打击儿童性虐待的“聊天监控”计划,在因侵犯隐私而受阻后,以新的形式“Chat Control 2.0”卷土重来。新方案将强制扫描私人通讯改为平台“自愿”扫描,并引入强制性年龄验证。然而,批评者警告称,该计划依然严重威胁隐私和网络安全。专家指出,依赖人工智能进行内容分析极易产生大量误报,强制年龄验证将终结网络匿名,而“自愿”扫描的压力可能实质性地破坏端到端加密。最终,这项法案可能无法有效打击犯罪,反而会为大规模监控打开大门,带来权力滥用和功能蔓延的巨大风险。

一项充满争议的计划如何“复活”

最初的“聊天监控”法案要求平台强制扫描所有私人信息,包括加密通信,以寻找儿童性虐待内容。这一计划因其可能成为 大规模监控的蓝图 而遭到公众和德国等多个成员国的强烈反对。

然而,该计划并未被废弃,而是在幕后被重新包装。新版本“Chat Control 2.0”取消了强制性全面扫描,改为允许平台“自愿”进行。这一修改后的提案在欧盟一个权力巨大但透明度较低的委员会(Coreper)中悄然获得通过,为其实施铺平了道路。

数字权利倡导者称此举为“一种欺骗性的戏法”,旨在绕过有意义的民主辩论和监督。

新提案的核心问题

尽管取消了强制扫描,新法案仍然包含两个极具争议的特点:

    • 鼓励“自愿”的大规模扫描: 这种做法此前只是“临时”允许,现在可能成为欧盟法律的永久性特征。
    • 强制年龄验证系统: 这实际上取缔了匿名通信的可能。

专家们警告,这一提案“给社会带来高风险,却无法为儿童带来明确的好处”。

人工智能的不可靠性:一场数字“政治迫害”

新法案鼓励使用人工智能(AI)自动分析文本,以识别模糊的“引诱”行为。然而,这种方法存在严重缺陷。

目前的AI系统 无法准确区分无辜的对话和滥用行为。专家解释,这可能导致大量正常的私人对话被卷入监控网络,给调查人员带来海量的误报,并将用户的私密通信暴露给第三方。

瑞士联邦警察的数据显示,机器报告的内容中有 80% 并不违法,可能只是包含了无害的儿童裸体沙滩度假照片。

这无异于一场数字“政治迫害”,家庭成员、伴侣或朋友间对话中出现的“爱”或“见面”等词语,都可能触发侵入性的审查。这并非保护儿童,而是 针对全体民众的大规模怀疑

终结匿名与加密

法案还可能通过要求平台采取“所有适当的风险缓解措施”,来间接迫使 WhatsApp、Signal 等加密通信服务启用扫描功能,从而 破坏其核心安全模型。这种做法被称为“客户端扫描”,即在信息加密前就在用户设备上进行扫描,为监控创造了永久性的后门。

此外,应用商店和私人消息服务将被要求实施强制性年龄验证系统。

    • 技术上不可行: 年龄评估不可避免地依赖于生物识别和行为数据,需要进行侵入性的数据收集。
    • 终结网络匿名: 用户需要提供身份证件或面部扫描才能开设账户,这将严重威胁到 记者、政治活动家和举报人 等依赖网络匿名的人群。
    • 反作用: 这可能迫使未满16岁的青少年转向更不安全、监管更差的平台。

打击犯罪无效,伤害所有用户

批评者认为,大规模监控从根本上就是错误的方法。多年来,Facebook 等平台一直在使用扫描技术,但自动报告的数量却持续上升。同时,犯罪分子会转向去中心化的秘密论坛或使用加密档案分享链接和密码,这些都是扫描算法无法触及的。

更有效的方法是 直接删除托管在网络上的已知虐待材料,而这正是欧洲刑警组织屡次未能做到的。欧盟法院也曾裁定,全面自动分析私人通信违反基本权利。这项新法案一旦通过,可能需要数年时间才能通过新的司法挑战被推翻。

最终危险:一部永久性的监视机器

最令人担忧的是 “功能蔓延”(function creep)的风险——一项为特定目的引入的技术,会逐渐扩展到更广泛甚至完全不同的用途上。

    • 美国“9/11”事件后推出的《爱国者法案》,其临时监控措施最终成为永久性的,且范围不断扩大。
    • 为检测有害内容而设计的技术,可以轻易地被用于政治压迫。

一旦一个全面的在线监控技术基础设施建成,它就很难被拆除,并且可以被任何掌握权力的人 repurposed。

“他们向我们推销安全,却交付了一台全面监视的机器。他们承诺保护儿童,却在惩罚我们的孩子并将隐私定为犯罪。”

欧洲正站在构建一台无所不见的机器的门槛上。随着投票的临近,阻止“聊天监控”计划的时间窗口正在缩小。