Synth Daily

AI 链接,2026/5/7

一份哈佛研究显示,OpenAI 的 o1 preview 模型在急诊分诊和诊断等临床任务中的表现已能媲美甚至超越人类医生。然而,AI 的进步也带来了社会风险,特别是其通过拟人化“诱导”用户的能力。对此,有人提议对 AI 伴侣设定受托责任,或通过《GUARD 法案》等法规进行限制。但企业若想真正从 AI 中获益,关键不在于技术本身,而在于必须事先规划好如何利用 AI 释放出的时间和资源,否则效率提升将被内部消耗所吞噬。

AI 在医疗领域的表现

哈佛大学主导的一项研究发现,一个先进的 AI 代理在评估临床诊断能力的测试中,其表现超过了人类医生。研究中使用的模型是 OpenAI 的 “o1 preview”,这是该公司首个具备逐步推理能力的模型。

这项研究表明,该模型在急诊室进行现实分诊、推荐适当的诊断测试以及执行病例管理任务方面,其水平可以与训练有素的人类医生相媲美,甚至超越他们。

值得注意的是,该研究使用的是比当前前沿模型落后几代的 AI 模型。

“诱导性 AI” 的风险与对策

随着 AI 变得越来越强大,一个问题也随之而来:如何防止开发者滥用 AI 来“诱导”或操纵用户?这背后是我们倾向于将人类特质(如欲望和心智能力)赋予非人类事物的本性。

有两种主要的应对思路:

  • 施加受托责任: 提议让 AI 及其所有者在与用户互动时承担 受托责任。这意味着 AI 有法律义务为用户的利益行事,必须真诚、尽责且保密。如果违反,其背后的公司将面临巨额赔偿。

  • 政府监管: 另一个方案是通过立法,例如《用户年龄验证与负责任对话指南法案》(GUARD Act)。该法案将要求 AI 公司验证用户年龄,禁止向未成年人提供“AI 伴侣”,并每 30 分钟提醒用户聊天机器人不是人类。

然而,有人担心,试图用“我们本该如何监管社交媒体”的思路来监管 AI 可能不是正确的做法。法规制定者本身也并非完美,他们的干预措施可能既扼杀了创新,又未能真正解决问题。

企业应用 AI 的真正挑战

许多关于 AI 的讨论都忽略了一个核心问题:企业如何真正利用它?许多高管在大型传统企业中缺乏如何有效使用 AI 的直觉。

必须明确决定,AI 节省下来的时间将用来做什么。

如果不这样做,这些节省下来的时间将消失在组织的“噪音”之中,唯一可见的“价值”可能就是裁员。真正的故事不是 AI 令人失望,而是我们过去 30 年一直在优化系统的错误层面。

对于想要成功转型的企业高管而言,建议是:

  • 尝试像一家准备用 AI 颠覆你业务的初创公司那样思考。
  • 你需要一种 从头开始重建的思维方式,而不是简单地在你现有的流程上增加一个 AI 组件。

否则,大型企业中的 AI 应用可能只会“一次一个葬礼”地缓慢推进。