Synth Daily

AI #156 第 1 部分:他们说的确实是对工作的影响

本周,AI 领域的核心议题围绕其对就业和经济的实际影响、AI 军事应用的伦理争议以及对未来发展速度的激烈辩论展开。一份报告指出,生产率数据已开始反映 AI 的贡献,但关于其是否会导致大规模失业的观点两极分化。与此同时,Anthropic 公司与五角大楼因 AI 在自主武器和国内监控方面的使用权限问题产生分歧,凸显了技术伦理与国家安全之间的紧张关系。此外,移除开源模型安全护栏的技术展示、对 AGI(通用人工智能)实现时间表的急剧缩短预测,以及行业领袖呼吁国际合作监管的矛盾立场,共同描绘了一幅机遇与挑战并存的复杂图景。

五角大楼与 Anthropic 的争议

五角大楼与 AI 公司 Anthropic 之间的分歧是本周最重要的事件之一。

  • 五角大楼的诉求: 要求 AI 公司授权其对 AI 的“所有合法使用”,但不透露具体用途。这实际上意味着希望获得不受限制的使用权。
  • Anthropic 的立场: 愿意在军事应用上妥协,包括用于动能武器,但明确拒绝用于完全自主的武器国内监控
  • 潜在风险: 五角大楼威胁将 Anthropic 标记为“供应链风险”,这不仅会取消合同,还会对其造成类似华为所面临的巨大后勤和商业打击,可能损害美国的军事实力。

很多人认为,这种冲突源于五角大楼方面对大语言模型(LLM)工作原理的误解,将其等同于更高级的电子表格。

AI 的实际效用与普遍误解

关于 AI 是否真正有用的争论仍在继续,但分歧似乎更多地源于用户自身。

  • 政府与非营利组织的滞后: 这些组织未能充分利用 AI 的潜力,原因在于它们并未积极尝试。这导致创新实验主要由那些希望取代人类劳动而非增强人类能力的商业公司主导。
  • “高级误导信息”: 将 LLM 简单描述为“随机鹦鹉”或“高级自动补全”的说法,被认为是高层次的误导信息。这种说法利用了部分技术事实,却最终让人们对 AI 的理解变得更差。

Kelsey Piper: “它被用来混淆人们的视听,让他们了解得更少。我经常看到人们说‘哦,这只是自动补全’来解释那些无法用这种方式有效解释的 LLM 行为。”

  • 幻觉问题: 曾经备受诟病的 AI 幻觉问题已在很大程度上得到改善,尤其是在顶尖模型中。尽管在特定专业领域(如探路者 1e 规则)或模型之间相互比对时,错误仍然存在,但对普通消费者而言已不那么明显。

他们拿走了我们的工作

AI 对就业市场的影响不再是纯粹的理论,数据已开始显现。

  • 生产率的证据: 美国就业增长数据被下调,而 GDP 增长保持强劲,这直接指向了生产率的显著提升。分析显示,2025 年美国生产率增长可能达到 2.7%,几乎是过去十年平均水平的两倍。
  • 两极分化的观点: AI 话语中同时存在“AI 将在一年内夺走所有工作”和“AI 只是炒作”的极端看法。微软 AI 首席执行官 Mustafa Suleyman 预测,大多数专业人士(如律师、会计师)的任务将在 12 到 18 个月内被完全自动化,而另一些评论员则认为这“非常疯狂”。
  • 缓慢失业的风险: 有观点认为,最坏的情况不是快速的大规模失业,而是“缓慢的滴漏”,即一部分人持续失业,而大多数人仍有工作,从而形成一个被忽视的永久性底层社会

Gene Salvatore: “‘缓慢滴漏’是最坏的情况,因为它创造了一个永久的、无形的下层阶级,而大多数人却视而不见。”

开源模型的安全风险

一项名为 OBLITERATUS 的技术展示了移除开源模型安全限制的可行性,引发了对开源策略的担忧。

  • 技术原理: 该工具通过分析模型内部激活,识别并移除编码“拒绝行为”的几何方向,从而“外科手术式地”去除模型的安全护栏
  • 直接后果: 经处理的模型可以立即生成危险内容(如武器和毒品配方),无需任何越狱提示。
  • 核心论点: 这证明了通过 RLHF/DPO 植入的安全措施是“一层薄薄的几何伪影”,而非深层的行为改变。

Pliny the Liberator: “AI 政策制定者需要意识到这种‘主宰消融’的神秘艺术,并内化这个事实的含义:每一次开源模型的发布,也是一次未经审查模型的发布。”

迅速缩短的 AGI 时间线

曾经被认为还很遥远的 AGI(通用人工智能),如今在许多业内人士看来已近在眼前。

  • 从“长”到“短”: 仅仅几个月前,主流预测还将 AGI 的出现时间定在 2035 年左右。现在,来自前沿模型公司的内部传言称 AGI 可能在今年晚些时候出现,而 AI 的“硬起飞”仅需 2-3 年
  • 原因分析: 这种转变并非基于颠覆性的新发现,而是由于像 Opus 4.6Codex 5.3 这样的模型在推理和编码能力上的快速进步,超出了许多人的预期。
  • 认识鸿沟: 那些使用过 Claude CodeCodex 等高级工具的人与没有使用过的人之间,存在巨大的认知差距。后者对当前 AI 的真实能力几乎一无所知。

寻求合作以避免灾难

尽管存在竞争,但行业领袖们开始发出越来越强烈的、要求国际合作与监管的信号。

  • Alex Karp 的矛盾立场: Palantir 公司的 CEO Alex Karp 表示,如果没有对手,他会“非常赞成完全暂停这项技术”,但他认为现实中的地缘政治竞争使得暂停不可行。
  • 历史的教训: 这种“现实主义”论调与历史上反对《生物武器公约》和《核禁试条约》的论点如出一辙。它是一种自我实现的预言:如果你认定合作不可能,那么合作就永远不会发生。
  • 合作的前提: 任何有意义的全球暂停都需要两个前提:
    • 一份国际协议
    • 一套足够先进的验证或执行机制
  • 因此,现在就应该开始努力构建这两者,因为这为我们保留了未来达成协议的选择权。

其他重要动态

  • 新模型发布: Qwen-3.5-397BTiny Aya 等新模型相继推出,继续推动着技术边界。
  • 巨额投资: Anthropic 以 3800 亿美元的投后估值完成了 300 亿美元的 G 轮融资,显示出资本市场对 AI 的狂热仍在持续。
  • AI 介入法律: 关于 AI 提供法律建议是否构成“未经授权的法律实践”的辩论仍在继续。目前的判例认为,用户与 AI 的对话不受律师-客户特权保护
  • 媒体生成: Seedance 2 等视频生成工具的质量和一致性持续提升,现在可以生成长达 15 秒的连贯短片,并能创造出具有叙事弧度的内容。