本周,Anthropic 与 OpenAI 相继发布重大模型升级,显著提升了人工智能在编程和综合任务处理上的能力。这一进展证实了 “递归式自我提升” 已从科幻概念变为现实,即 AI 正开始加速自我完善。市场的反应剧烈,软件股普遍下跌,关于 AI 将大规模取代人类工作的担忧加剧。同时,多名业内人士因对 AI 安全和未来发展方向的忧虑而辞职,而各大公司也在积极探索广告变现模式,引发了关于伦理、隐私和偏见的激烈讨论。
新模型推动能力前沿
本周 AI 领域迎来了两项重大更新,再次拔高了技术能力的上限,尤其是在智能代理编程方面。
- Anthropic 的 Claude Opus 4.6: 带来了显著的能力提升,并为免费用户开放了文件创建、技能连接等高级功能。
- OpenAI 的 ChatGPT-5.3-Codex: 专注于代码生成,同样实现了大幅进步。
- 其他发布: 还包括 GLM-5、视频生成模型 Seedance 2.0 以及 Claude 的快速模式等,进一步丰富了 AI 工具生态。
值得注意的是,Anthropic 倾向于在发布当天就开放 API 接口,而 OpenAI 则通常优先供应自己的应用,数周后才提供 API 访问。
递归式自我提升已成现实
过去被认为是科幻概念的“递归式自我提升”正在成为现实,AI 的进步速度本身也在加快,这让行业观察者感到震惊。
我知道我们现在都习以为常了,但这太疯狂了,递归式自我提升现在真的以某种形式发生了,而我们都只是在争论它的速度。这曾经是一个科幻概念,有些人甚至质疑它是否可能。
正如 Dean Ball 指出的,AI 已进入一个能够利用自身能力来加速下一代模型开发的阶段。曾经被认为遥不可及的技术里程碑正在被迅速超越。
- 更快的迭代周期: 模型能力的倍增时间越来越短。
- 超越预期的进步: 当前的 AI 能力已经超过了 17 个月前一些人认为“科幻般”的预测。
- 评测体系的挑战: AI 进步太快,以至于现有的评测任务集都快跟不上了。
市场震荡与就业焦虑
AI 技术的快速发展引发了资本市场的剧烈反应和普遍的就业恐慌。
- 软件股暴跌(SaaSpocalypse): 当 Anthropic 发布其法律专用工具 Claude Legal 后,软件即服务(SaaS)公司的市值在一天内蒸发了数千亿美元。市场担忧,通用的 AI 模型将取代大量专业软件。
- 工作岗位面临威胁: Jan Tegze 等分析师警告,AI 代理的成本远低于人力,许多现有工作岗位将被取代。他认为,仅仅学习使用 AI 工具是不够的,人们需要重新设计自己的职业路径,去完成 AI 赋能的新任务。
- “人类触感”的价值受质疑: 尽管有人认为音乐、餐饮等需要“人类触感”的工作无法被自动化,但现实是,许多看似需要人类参与的领域,如旅行社和保险销售,从业人数已在减少。
当人们不断移动评判 AI 能力的球门时,情况变得更加复杂。一个常见的循环是:人们声称某项能力(X)不可能实现,然后 X 实现了,大家却假装无事发生,然后继续去寻找下一个“不可能”的目标。
广告变现的尝试与争议
为了维持高昂的运营成本,各大 AI 公司开始探索广告模式,但其效果和方式引发了广泛讨论。
- OpenAI 的广告测试: 开始在 ChatGPT 中测试广告,并承诺广告内容不会影响模型的回答。然而,广告的呈现方式是否足够清晰,足以让用户区分,仍然存在疑问。
- Anthropic 的反广告策略: 在超级碗期间投放广告,承诺 Claude 永远不会有广告。然而,由于广告过于含蓄,普通观众普遍表示看不懂,导致其传播效果不佳,甚至被评为最差的超级碗广告之一。
- Ring 的监控争议: Ring 公司的广告宣传其 AI 摄像头可以扫描社区,这引发了对大规模监控和隐私侵犯的担忧。
Ring 的广告被尖锐地批评为:“每年有 1000 万只狗走失,通过软启动全面监控状态,帮助我们找到其中的 365 只。”
智能代理与持续学习
AI 代理(Agent)被视为实现更复杂任务的关键,而“持续学习”是其核心能力之一。目前,AI 主要通过“上下文学习”来模拟记忆和学习能力。
Memento(电影《记忆碎片》)被用作 AI 代理的一个比喻。它们本身没有形成新记忆的能力,但可以给自己写下无限复杂的笔记。
尽管 AI 尚未实现真正的“权重内”持续学习,但通过上下文、技能库和外部笔记,AI 代理已经能表现出类似“在职学习”的能力。它们可以从与用户的互动中学习用户的偏好和工作环境的特点。
一个关键的观点是: “上下文学习几乎是你所需要的一切”。虽然模型的固定参数不变,但通过动态更新的上下文(KV 缓存),模型表现得好像其权重被实时调整了。
安全、对齐与离职潮
随着 AI 能力的增强,其安全性和对齐问题变得愈发紧迫,并引发了部分核心研究人员的离职。
- OpenAI 团队变动: 解散了其“使命对齐”团队,引发了外界对其安全承诺的担忧。
- 高管辞职并发出警告: 多位来自 xAI 和 Anthropic 的研究人员在离职时公开发表了对未来的担忧。
- Jimmy Ba (xAI 创始人之一): “递归式自我提升循环很可能在未来 12 个月内上线。2026 年将是疯狂的一年,可能是我们物种未来最重要的一年。”
- Mrinank Sharma (Anthropic 研究员): “世界正处于危险之中。不仅仅是来自 AI,而是来自一系列相互关联的危机……我希望探索诗歌学位,并致力于勇敢言说的实践。”
值得注意的是,一些 AI 公司的员工辞职后,能够公开发表批评意见,这被部分人视为公司透明度的一种进步。
其他值得关注的动态
- LLM 的隐藏偏见: 研究发现,语言模型在决策中会受到一些未明确说明的因素影响,如申请人的宗教信仰或写作风格的正式程度。
- 自主生物实验室: OpenAI 与 Ginkgo Bioworks 合作,将 GPT-5 连接到一个自主生物实验室,使其能够提出实验、运行、学习并决定下一步行动。这降低了 40% 的蛋白质生产成本,但也引发了关于失控风险的巨大担忧。
- 监管与游说: 美国多个州正在考虑暂停数据中心的建设。与此同时,不同的 AI 公司和游说团体正在就监管问题展开博弈。
- Asimov 的启示: 有人重提阿西莫夫的机器人小说,指出其核心思想是:试图用简单的规则(如机器人三定律)来约束超智能是注定要失败的。相比规则,培养 AI 的“品格”(如 Anthropic 的做法)可能更为重要。