Anthropic 公司将更新其隐私政策,默认使用其 AI 助手 Claude 的用户对话来训练未来的模型。这是一个选择退出 (opt-out) 的机制,意味着用户的数据会被自动用于训练,除非用户主动在设置中关闭该选项。此外,该公司还将用户数据的保留期限延长至五年。
核心变化:用你的对话训练 AI
从 10 月 8 日起,Anthropic 将开始使用与 Claude 的用户对话(包括聊天和编码任务)来训练其大型语言模型。此前,该公司并不使用用户聊天记录进行训练。
“来自真实世界互动的数据,能为我们提供宝贵的见解,帮助我们判断哪些回应对于用户最有用、最准确。”
通过分析海量的真实用户数据,Anthropic 的开发者希望能够持续改进 Claude 的性能。
如何选择退出(Opt-Out)
保护你的对话隐私,需要你主动进行设置。
- 新用户: 在注册过程中会被要求做出选择。
- 现有用户: 你可能会看到一个弹窗,其中“允许使用你的对话来训练模型”的选项是 自动开启 的。如果你直接接受了更新,就意味着你已经同意了新的训练政策。
- 所有用户: 你可以随时在隐私设置 (Privacy Settings) 中更改此选项。找到名为 “帮助改进Claude (Help improve Claude)” 的设置,并确保其开关处于 关闭 状态。
哪些数据会受影响?
一旦你同意(或未选择退出),以下几点需要注意:
- 新对话和旧对话: 该政策适用于所有 新的对话 以及你 重新访问的旧对话。Anthropic 不会自动抓取你全部的历史记录,但一旦你重新打开一个旧的聊天串,它就会被纳入训练范围。
- 数据类型: 这包括你的聊天记录和编码任务。
- 用户范围: 政策适用于所有免费及付费的个人用户。通过政府或教育计划授权的商业用户不受影响。
另一项重要更新:数据保留期
除了模型训练政策的变更,Anthropic 还将用户数据的保留时间从通常的 30 天大幅延长至 五年。
重要的是,这项数据保留政策适用于所有用户,无论你是否同意将对话用于模型训练。
与其他 AI 的比较
在此次更新之前,Claude 是少数几个不会自动将用户对话用于模型训练的主流 AI 之一。相比之下,OpenAI 的 ChatGPT 和 Google 的 Gemini 等竞争对手,其个人账户的默认设置也是 选择退出 模式,即默认使用用户数据进行训练。