Synth Daily

Google Chrome 在未经同意的情况下,静默在你的设备上安装了一个 4 GB 的 AI 模型

谷歌 Chrome 被指控在用户不知情且未同意的情况下,在其设备上静默安装一个约 4GB 大小的 Gemini Nano 本地 AI 模型。该行为不仅违反了欧盟的隐私与数据保护法规,还占用了大量的存储空间和网络带宽,并产生了巨大的碳排放成本。更具误导性的是,即使用户的设备上安装了此本地模型,Chrome 中最显眼的“AI 模式”功能仍会将数据发送到云端处理,这使得本地安装的意义和透明度备受质疑。

核心问题:未经同意的静默安装

谷歌 Chrome 在用户的设备上悄悄写入一个名为 weights.bin 的 4GB 文件,该文件是 Gemini Nano(谷歌的设备端大语言模型)的权重文件。

  • 没有征求同意: 用户没有收到任何关于此次下载的提示或同意请求。Chrome 设置中也没有“下载一个 4GB 的 AI 模型”之类的选项。
  • 默认启用: 在最新版本的 Chrome 中,AI 功能默认处于激活状态。只要用户的硬件符合要求,Chrome 就会自动将模型推送到设备上。
  • 无法轻易删除: 如果用户手动删除这个 4GB 的文件,Chrome 会在下次启动时 再次重新下载。唯一永久阻止的方法是通过普通用户不熟悉的 chrome://flags 或企业策略工具来禁用 AI 功能。

这一行为与此前 Anthropic 公司在用户设备上静默安装软件的模式如出一辙:安装产品 A,然后在未经用户许可的情况下修改产品 B、C、D。

技术证据:如何证实这一行为

作者通过多方位的技术取证,证实了这一静默安装行为并非个例或偶然。

  • macOS 文件系统日志 (.fseventsd): 内核级的日志精确记录了 Chrome 在一个没有任何人工交互的全新用户配置文件中,创建 OptGuideOnDeviceModel 目录,并在约 14 分钟内完成 4GB 文件的解压和移动。
  • Chrome 本地状态文件: 文件显示 Chrome 对设备硬件(如 GPU 和内存)进行了评估,以判断其是否有资格接收模型推送,这一切都发生在用户与任何 AI 功能交互之前。
  • Chrome 功能标志: 内部标志 OnDeviceModelBackgroundDownload 表明,静默下载和在设置中显示“设备上 AI”选项是由同一个指令控制的。这意味着 在用户有机会看到相关设置并拒绝之前,下载就已经开始了
  • 谷歌更新日志: 日志记录了控制组件的下载,该组件为 Chrome 提供了下载大型模型文件的指令。

我们现在有一个四方证据链——macOS 内核文件系统事件、Chrome 自身的配置文件状态、Chrome 的运行时功能标志和谷歌的组件更新日志——所有四项都指向了相同的行为。

一个被重复使用的“黑暗模式”剧本

谷歌的行为遵循了一套典型的“黑暗模式”设计,旨在优先考虑供应商的利益而非用户的权利。

  • 强制捆绑: 将一个独立的产品(AI 模型)强行写入用户设备,跨越了信任边界。
  • 隐蔽的默认设置: 没有首发对话框,没有设置复选框。用户通常在磁盘空间被占满后才发现。
  • 移除比安装更难: 移除文件需要用户自行发现、定位并删除,之后还需通过高级设置来防止其重新下载。
  • 预先部署能力: 即使用户从未调用过任何 AI 功能,模型文件依然会占用 4GB 空间。
  • 模糊的命名: OptGuideOnDeviceModel 这样的内部行话,让普通用户无法识别其真实身份是 Gemini Nano AI 模型。
  • 无视用户意图: 用户的删除操作被视为一个需要“纠正”的瞬时状态,而不是一个需要尊重的指令。

“AI 模式”的误导性设计

最令人不解的是,Chrome 在地址栏中显著位置展示的“AI 模式”功能,并 不使用 这个被静默安装的 4GB 本地模型。

当用户点击并使用这个“AI 模式”时,他们输入的 所有查询都被发送到谷歌的云端服务器 进行处理。真正使用本地模型的功能(如“帮我写作”、标签页分组建议等)则隐藏在右键菜单深处,大多数用户可能永远不会发现。

用户为静默安装付出了存储成本,但他们最显眼的 AI 体验却完全没有获得设备上处理的好处,因为它无论如何都会路由到谷歌的服务器。这种安排可以被视为一种障眼法,掩盖了 可见的 AI 模式并非在本地运行 的事实。

这种设计涉嫌多种欺骗性模式,因为它误导了用户对数据处理位置的认知,剥夺了用户的选择权,并增加了关闭功能的难度。

违反隐私法规

根据分析,谷歌的行为直接违反了欧盟和英国的多项法律。

  • ePrivacy 指令 (2002/58/EC): 禁止在未经用户明确、知情同意的情况下,在用户设备上存储或访问信息。
  • GDPR (通用数据保护条例): 违反了其关于合法、公平和透明处理个人数据的原则,以及数据保护设计和默认原则。
  • 其他法律: 可能还违反了加州消费者隐私法 (CCPA) 和各国的计算机滥用法。

巨大的环境成本

向数亿台设备推送一个 4GB 的文件会产生惊人的环境足迹。

  • 单次推送的成本: 每台设备下载一次,约消耗 0.24 kWh 的电力,产生 0.06 kg 的二氧化碳当量排放。
  • 总成本估算:
    • 低估(1 亿台设备): 消耗 24 GWh 电力,产生 6,000 吨 二氧化碳当量,相当于 1,300 辆汽车的年排放量。
    • 中等估计(5 亿台设备): 消耗 120 GWh 电力,产生 30,000 吨 二氧化碳当量。
    • 高估(10 亿台设备): 消耗 240 GWh 电力,产生 60,000 吨 二氧化碳当量,相当于 13,000 辆汽车的年排放量。

这还不包括因用户删除而产生的重复下载、未来模型更新以及存储这些文件所需的固态硬盘制造过程中的碳排放。对于那些按流量计费的用户(尤其是在发展中地区),4GB 的意外下载可能相当于一个月的流量套餐。

谷歌本应如何做

正确的做法本应简单直接,以尊重用户为核心。

  • 主动询问: 在下载前弹出对话框,让用户选择。
  • 按需拉取: 仅在用户首次尝试使用相关功能时才触发下载。
  • 提供控制权: 在设置中清晰列出已下载的模型、大小,并提供一个 “移除并停止下载” 的按钮。
  • 明确文档说明: 在应用商店描述、安装程序和下载页面上,明确告知用户可能会下载大型附加文件。
  • 尊重删除操作: 如果用户删除了文件,就不要再重新下载。
  • 承担企业责任: 在环境、社会和治理 (ESG) 报告中,公开此类行为的总体带宽和碳足迹。

结论

谷歌和 Anthropic 的案例都揭示了一个令人不安的趋势:大型科技公司将用户的个人设备视为其产品路线图的延伸,而非用户的私有财产。这种行为不仅破坏了用户信任,也违反了法律,并对环境造成了实际的伤害。

监管机构和检察官何时才会开始执行自 2002 年以来就已存在的法律——还是说,全球科技公司可以豁免于刑事和民事法规?