Synth Daily

这里没有 AI*:回应 Mozilla 的下一章

Mozilla计划将AI深度集成到浏览器中,以成为“最受信任的软件公司”。然而,将大型语言模型(LLM)这种不透明的“黑盒”技术置于核心,会从根本上破坏用户的信任和控制权。因此,Waterfox将坚持不集成LLM,继续作为一个以用户为中心、简洁、透明且可控的浏览器,为那些寻求独立性的用户提供替代选择。

“AI”的真正含义

“AI”已成为一个笼统的术语,它掩盖的信息比揭示的更多。并非所有AI技术都一样。

  • 有用的机器学习: 像Bergamot这样的翻译项目,其功能是透明的(在本地翻译文本)、可审计的(可以检查模型和其行为),且范围明确有限。
  • 大型语言模型(LLMs): 这完全是另一回事。它们是 黑盒。你无法审计它们,也无法真正理解它们如何处理你的数据或验证它们的行为。

Mozilla希望将这种黑盒技术置于浏览器的核心,这令人不安。

浏览器的核心使命是什么?

浏览器本应是 你的代理,代表你并在网络上执行你的指令。它之所以被称为“用户代理”(User Agent)是有原因的。

当你在用户和网络之间引入一个潜在的LLM层时,你就创造了某种“用户代理的用户代理”。AI成为了新的代理,在你和浏览器之间进行调解和解释。

这个新的代理可能会:

  • 重新组织你的标签页。
  • 重写你的浏览历史。
  • 根据你无法审查或理解的逻辑,决定你看到什么以及如何看到。

“可选择关闭”并非解决方案

Mozilla承诺“AI永远是一个选项——人们可以轻松关闭它”。但这并不能解决根本问题。当你打开一个黑盒时,你如何追踪它的实际行为?你如何知道它没有在你未曾注意到的情况下,悄悄地重塑你的浏览体验?

即使用户可以禁用单个AI功能,监控一个声称在为你服务的、不透明的系统,其认知负担也是巨大的。这并非偏执,而是对一种 根本上不可信的技术 被定位为网页浏览未来的合理反应。

Mozilla的困境与策略失误

Mozilla正面临生存危机:AI浏览器兴起,市场份额持续下滑,收入多元化的压力巨大。然而,他们的应对策略存在一个深刻的讽刺:一边谈论信任、透明和用户代理权,一边却拥抱破坏所有这些原则的技术。

Mozilla的优势一直来自技术社区——开发者、高级用户和隐私倡导者。然而,Mozilla似乎执意要去追逐已被Chrome主导的主流用户。这种追逐在过去十多年里一直失败,而现在他们正加倍推行这一策略,这可能会疏远他们赖以生存的核心技术社群。

Waterfox的不同选择

Waterfox的存在,是因为有些用户只想要一个能把“浏览器”本职工作做好的工具。我们专注于:

  • 成熟的用户界面: 浏览器UI在多年前就已是成熟的解决方案。
  • 显而易见的定制功能: 用户可以轻松找到并使用。
  • 性能与网络标准: 确保浏览器高效且合规。

核心的浏览体验应该完全由用户掌控,而不是让用户去持续监控一个声称在帮助你、但又深不可测的系统。

因此,Waterfox 将不会集成大型语言模型(LLMs)。至少在可预见的未来,以其目前的形式,绝对不会。

治理与责任的重要性

许多浏览器项目虽然宣称独立,但却缺乏任何正式的治理结构、隐私政策或服务条款。这意味着没有法律实体,也没有 问责机制

对于浏览器这种处理你最敏感在线交互的软件而言,一个负责任的组织和明确的政策至关重要。Waterfox维持正式的政策和法律实体,不是因为官僚主义,而是为了创造问责制,这是许多项目所不具备的。你知道谁在为你使用的软件负责,以及关于你隐私的决策是如何做出的。

关于所谓的“必然性”

有人会说AI浏览器是不可避免的。也许吧。但网络从根本上是去中心化的,替代方案将永远存在。如果用户最终发现他们想要更简单、更值得信赖的东西,Waterfox会一直在这里。

当技术社区需要一个真正尊重他们的浏览器时,Waterfox就满足了这一需求。我们将继续这样做。

浏览器的职责是为你服务,而不是替你思考。 这是Waterfox的核心原则,它不会改变。