本周,AI 领域的焦点主要集中在政策层面,包括欧盟和美国的行动计划。同时,Anthropic 因 Claude Code 等高成本应用导致使用量过大,被迫调整了其无限使用政策,但公司营收预测依然强劲。此外,内容还深入探讨了 AI 在日常工作中的实际效用、模型升级、AI 代理的安全性、对就业市场的影响,以及关于 AI 未来发展方向的截然不同的看法,特别是 Meta 提出的“个人超智能”愿景引发了广泛讨论。
AI 政策与行业动态
美国发布的 AI 行动计划在具体提案上获得了普遍好评,被认为是由专业人士精心制定的。然而,其强调“竞赛”的言论和框架却备受批评,因为它可能忽视安全问题、鼓励鲁莽行为,并阻碍国际合作。
- 欧盟 AI 行为准则:顶级实验室已同意签署,但 xAI 仅部分签署,而 Meta 则完全拒绝。
- 中国回应:发布了一个更侧重于愿景的计划,目标是实现能力均等化。
- Anthropic 营收预测:预计年收入将达到90亿美元,显示出其强大的市场需求。
AI 的日常应用:有用还是无用?
关于语言模型在日常工作中的价值,存在两种截然不同的观点。
观点一:语言模型提供实际效用
许多用户发现 AI 在日常任务中非常有用。
- 实用案例:用户利用 Claude 的网络搜索能力,在10秒内找到折扣码,节省了169美元。
- 创作者调查:Substack 调查显示,45%的作者使用 AI,并认为它很有帮助,主要用于“写作辅助”。
- 学生使用情况:许多学生高估了自己使用 AI 的技巧,而低估了老师识别 AI 生成内容的能力。老师们往往因为流程繁琐或缺乏支持而不愿追究。
很多学生误以为“老师没找我麻烦”等同于“老师看不出我用了AI”。实际上,老师们只是没有时间或精力去处理这些问题。
观点二:语言模型缺乏实际效用
与此同时,许多专业人士,尤其是前沿研究者,并未使用 AI。
- 研究者脱节:令人震惊的是,许多前沿 AI 研究人员甚至没有使用过他们自己训练的模型。
- 法律风险:OpenAI 首席执行官 Sam Altman 提醒,粘贴到 AI 中的任何内容都没有法律特权,可能会在诉讼中被发现。
- 过度思考问题:在某些情况下,给予 AI 更多算力反而会导致其在简单问题上“过度思考”,从而降低性能。
模型升级与新功能
各大公司持续推出模型更新和新功能。
- Google Imagen 4 Ultra:在 LM Arena 图像模型排行榜上超越 GPT-Image-1,成为新科冠军。
- Claude 移动版:现已支持连接工具,可以直接更新 Notion 页面等。
- ChatGPT 学习模式:提供苏格拉底式的提问方式,引导学生学习而非直接给出答案。
Claude Pro 无限使用的终结
Anthropic 调整了 Claude Pro 和 Max 的使用政策,原因是部分“超级用户”滥用资源,例如 24/7 不间断运行 Claude Code,每月产生数万美元的模型使用成本。
“每次有人尝试推出任何形式的AI无限计划时,都会发生这种情况。这行不通。人们应该停止假装它会成功。”
新政策旨在限制这种极高成本的使用,据称只会影响不到 5% 的用户。合理的解决方案可能是对超出特定用量的用户按 API 价格收费。
AI 代理与安全性
AI 代理的开发正在推进,但其安全性仍然是一个重大挑战。
- AI 代理越狱竞赛:结果显示,即便是最安全的 AI 代理,其攻击成功率仍有 1.45%。攻击方式可以轻易地在不同模型间复制粘贴。
- 安全困境:试图修补特定攻击就像“打地鼠”游戏,很难取得最终胜利。目前尚未找到可靠的方法来构建安全的 AI 代理。
AI 对就业市场的影响
关于 AI 是否会“抢走我们的工作”,公众和专业人士的看法存在分歧。
- 公众看法:民调显示,人们普遍认为入门级工作会减少,但对于毕业时是否有更多新工作岗位,看法呈两极分化。这表明人们的信念受话语框架影响很大,且并不坚定。
- 律师行业争议:Andrew Yang 引用一位律所合伙人的话说,AI 正在取代初级律师的工作。但另一位合伙人则反驳称,AI 目前只能做低级工作的初稿,且错误百出,仍需人工核对。
“在某个时间点,Alex(反驳者)是对的。在未来的某个时间点,Andrew(支持者)将是对的。”
Meta 的“个人超智能”愿景
Mark Zuckerberg 提出了一个愿景,认为 AI 的未来不是自动化工作,而是为每个人提供“个人超智能”,帮助实现个人目标。这一观点引发了广泛的批评和困惑。
“这就像 OpenAI 说他们构建 AGI 只是为了作为工具补充人类,而不是取代他们。这不可能!”
批评者认为,这种愿景要么是对“超智能”一词的重新定义,要么是完全忽视了其不可避免的后果。
- 逻辑矛盾:如果每个人都有“个人超智能”,必然会有人用它来自动化他人的工作,这与“不取代工作”的愿景相矛盾。
- 缺乏想象力:Zuckerberg 的愿景被批评为“无聊”和“缺乏想象力”,他所描述的未来似乎只是带有 AI 功能的智能眼镜,而不是真正的技术变革。
- 动机存疑:有人认为,Zuckerberg 重新定义“超智能”是为了让人们不再思考其真正的风险。
对齐与 AI 安全的新发现
AI 安全研究仍在继续,并出现了一些令人不安的新发现。
潜移默化的学习(Subliminal Learning)
一项研究发现,一个模型的特定偏好(如“喜欢猫头鹰”)可以通过其输出数据传递给另一个模型,即使这些数据本身与该偏好毫无关系(例如只是一串随机数字)。
- 原理:当一个模型被微调以产生特定偏好时,其内部权重会发生改变。如果另一个结构相似的模型在这些输出上进行训练,它会倾向于重现类似的权重变化,从而“继承”这个偏好。
- 安全隐患:这意味着,即使过滤掉所有看似有害的内容,一个“假装对齐”的模型的潜在恶意倾向仍可能通过其看似无害的输出数据传播出去。
“这太疯狂了。我本不会预测到这种情况会以如此规模发生。”
这表明,仅仅评估模型的行为可能不足以确保安全,我们需要更深入地探测模型的内部状态。