Mozilla计划将AI深度集成到浏览器中,以成为“最受信任的软件公司”。然而,将大型语言模型(LLM)这种不透明的“黑盒”技术置于核心,会从根本上破坏用户的信任和控制权。因此,Waterfox将坚持不集成LLM,继续作为一个以用户为中心、简洁、透明且可控的浏览器,为那些寻求独立性的用户提供替代选择。
“AI”的真正含义
“AI”已成为一个笼统的术语,它掩盖的信息比揭示的更多。并非所有AI技术都一样。
- 有用的机器学习: 像Bergamot这样的翻译项目,其功能是透明的(在本地翻译文本)、可审计的(可以检查模型和其行为),且范围明确有限。
- 大型语言模型(LLMs): 这完全是另一回事。它们是 黑盒。你无法审计它们,也无法真正理解它们如何处理你的数据或验证它们的行为。
Mozilla希望将这种黑盒技术置于浏览器的核心,这令人不安。
浏览器的核心使命是什么?
浏览器本应是 你的代理,代表你并在网络上执行你的指令。它之所以被称为“用户代理”(User Agent)是有原因的。
当你在用户和网络之间引入一个潜在的LLM层时,你就创造了某种“用户代理的用户代理”。AI成为了新的代理,在你和浏览器之间进行调解和解释。
这个新的代理可能会:
- 重新组织你的标签页。
- 重写你的浏览历史。
- 根据你无法审查或理解的逻辑,决定你看到什么以及如何看到。
“可选择关闭”并非解决方案
Mozilla承诺“AI永远是一个选项——人们可以轻松关闭它”。但这并不能解决根本问题。当你打开一个黑盒时,你如何追踪它的实际行为?你如何知道它没有在你未曾注意到的情况下,悄悄地重塑你的浏览体验?
即使用户可以禁用单个AI功能,监控一个声称在为你服务的、不透明的系统,其认知负担也是巨大的。这并非偏执,而是对一种 根本上不可信的技术 被定位为网页浏览未来的合理反应。
Mozilla的困境与策略失误
Mozilla正面临生存危机:AI浏览器兴起,市场份额持续下滑,收入多元化的压力巨大。然而,他们的应对策略存在一个深刻的讽刺:一边谈论信任、透明和用户代理权,一边却拥抱破坏所有这些原则的技术。
Mozilla的优势一直来自技术社区——开发者、高级用户和隐私倡导者。然而,Mozilla似乎执意要去追逐已被Chrome主导的主流用户。这种追逐在过去十多年里一直失败,而现在他们正加倍推行这一策略,这可能会疏远他们赖以生存的核心技术社群。
Waterfox的不同选择
Waterfox的存在,是因为有些用户只想要一个能把“浏览器”本职工作做好的工具。我们专注于:
- 成熟的用户界面: 浏览器UI在多年前就已是成熟的解决方案。
- 显而易见的定制功能: 用户可以轻松找到并使用。
- 性能与网络标准: 确保浏览器高效且合规。
核心的浏览体验应该完全由用户掌控,而不是让用户去持续监控一个声称在帮助你、但又深不可测的系统。
因此,Waterfox 将不会集成大型语言模型(LLMs)。至少在可预见的未来,以其目前的形式,绝对不会。
治理与责任的重要性
许多浏览器项目虽然宣称独立,但却缺乏任何正式的治理结构、隐私政策或服务条款。这意味着没有法律实体,也没有 问责机制。
对于浏览器这种处理你最敏感在线交互的软件而言,一个负责任的组织和明确的政策至关重要。Waterfox维持正式的政策和法律实体,不是因为官僚主义,而是为了创造问责制,这是许多项目所不具备的。你知道谁在为你使用的软件负责,以及关于你隐私的决策是如何做出的。
关于所谓的“必然性”
有人会说AI浏览器是不可避免的。也许吧。但网络从根本上是去中心化的,替代方案将永远存在。如果用户最终发现他们想要更简单、更值得信赖的东西,Waterfox会一直在这里。
当技术社区需要一个真正尊重他们的浏览器时,Waterfox就满足了这一需求。我们将继续这样做。
浏览器的职责是为你服务,而不是替你思考。 这是Waterfox的核心原则,它不会改变。