Anthropic用户迎来新选择——要么选择退出,要么同意分享聊天内容用于AI训练
Anthropic正在调整其用户数据处理政策,要求所有Claude用户必须主动选择,是否允许自己的聊天内容被用于AI模型训练。此前,用户的对话数据默认不被用于训练且定期删除,但新政策将数据保留期延长至五年,并默认开启数据共享选项。此举旨在提升模型性能以应对激烈的行业竞争,但也因其“选择退出”机制的设计,引发了关于用户在不知情下同意共享数据的隐私担忧。
新政策的核心变化
从现在起,Anthropic将改变处理消费者数据的方式。所有Claude Free、Pro和Max用户需要在9月28日前做出决定。
- 旧政策: 消费者的聊天数据不用于模型训练,并在30天内从后端自动删除。
- 新政策: 如果用户不主动选择退出,其对话和编程内容将被用于训练AI模型,数据保留期最长可达五年。
这是一个重大的转变。值得注意的是,企业客户(如使用Claude for Work或API的用户)不受此政策变更的影响,这与OpenAI等公司的做法类似。
政策背后的动机
Anthropic官方声称,此举是为了让用户帮助提升模型的表现,从而使所有用户受益。
- 官方解释:
- 提升模型安全性,更准确地检测有害内容。
- 改进模型在编码、分析和推理等方面的能力。
然而,更深层次的原因可能与激烈的市场竞争有关。像所有大型语言模型公司一样,Anthropic对数据的需求极为迫切。获取数百万用户的真实互动内容,是其在与OpenAI和谷歌等对手的竞争中获得优势的关键资源。
行业趋势与用户困惑
Anthropic的政策调整也反映了整个AI行业在数据处理上的普遍转变和面临的审查压力。
- AI公司因其数据保留实践正受到越来越严格的审视。
- 例如,OpenAI目前正面临法院命令,要求其无限期保留所有ChatGPT用户的对话(包括已删除的聊天记录),以应对一场由媒体机构提起的诉讼。
- 这些快速且不透明的政策变化,正在给普通用户带来极大的困惑和不安,许多人甚至没有意识到他们同意的条款已经改变。
“默认同意”的设计与隐私担忧
新政策的推行方式尤其引人注目,其设计似乎在引导用户接受数据共享。
对于现有用户,更新通知以弹窗形式出现。其中,“接受”按钮非常醒目,而下方用于关闭数据共享权限的切换开关则字体很小,且默认设置为“开启”状态。
这种设计引发了普遍担忧,即用户很可能在没有仔细阅读的情况下,下意识点击“接受”,从而在不知不觉中同意了数据共享。隐私专家长期以来一直警告,AI技术的复杂性使得用户几乎不可能做出真正有意义的知情同意。美国联邦贸易委员会(FTC)也已警告AI公司,如果通过隐晦的条款或小字印刷等手段偷偷更改服务条款,将可能面临执法行动。