AI 并不会取代放射科医生

尽管人工智能(AI)模型在放射学诊断中的准确性和速度已在测试中超越人类,但放射科医生的需求和薪资却持续增长。这一现象的核心原因在于,AI在真实的临床环境中表现并不稳定,其应用受到严格的法律和保险限制,并且AI仅能替代放射科医生众多职责中的一小部分。此外,AI带来的效率提升反而刺激了更多的影像检查需求,导致放射科医生的工作量不减反增。这表明技术进步并不直接等同于人力替代,其最终影响取决于社会制度、法律规范和实际工作行为的相互作用。

一个意想不到的悖论

自2017年以来,AI在放射学领域取得了巨大进步。像CheXNet这样的模型在检测特定疾病方面比人类专家更准确、更快速。目前已有超过700款放射学AI工具获得FDA批准。然而,与AI将取代人类的预测相反,放射科医生的就业市场空前火爆。

    • 职位空缺创纪录: 2025年,美国放射科住院医师项目提供的职位数量创下历史新高。
    • 薪资大幅上涨: 2025年,放射科成为美国收入第二高的医疗专业,平均收入比2015年高出48%。

理论上,放射学是AI最容易取代人类的领域之一。但现实情况是,对人类放射科医生的需求比以往任何时候都高。

为什么AI在现实世界中表现不佳?

AI模型在标准化的基准测试中表现出色,但在复杂的医院环境中却难以复制这种成功。

    • 狭窄的适用范围: 大多数AI模型只能诊断训练数据中常见的异常情况。一个放射科医生需要同时操作数十个独立的模型才能覆盖日常工作的一小部分。
    • “样本外”性能下降: 在一个医院训练的模型,换到另一个医院时性能可能会下降多达20个百分点。这是因为不同医院的设备、操作流程和病人特征存在差异。
    • 训练数据有偏见: 用于训练AI的数据集通常排除了模糊、角度奇怪或不够清晰的图像,这使得模型更擅长处理最简单的病例,而这些病例医生本就很容易诊断。
    • 过度依赖的风险: 医生在临床实践中似乎会过度信赖AI工具。研究发现,当AI辅助系统给出错误指导时,医生做出错误决策的可能性比没有辅助的同行高出26%。

“人类在环”:法律与保险的限制

即使AI模型变得更完美,监管和保险政策也阻碍了其全自动应用。

    • 更高的审批门槛: FDA将AI工具分为两类。辅助工具只需证明其性能不差于市面上的同类产品即可。而全自动工具则必须通过更严格的审查,证明其能识别并拒绝处理超出其能力范围的扫描图像。
  • 保险公司不愿承保: 诊断错误是美国医疗事故赔付中最昂贵的一项。保险公司认为,一个有缺陷的算法可能同时伤害成千上万的病人,风险远高于单个人类医生的失误。
      • 许多保险合同明确规定:“保障范围仅适用于经执业医师审核和认证的判读;对于由软件自动生成的诊断,不提供任何赔偿。”
      • 一些保险公司甚至直接使用“绝对AI除外条款”。

如果没有医疗事故保险,医院就不敢让算法独立签署诊断报告。

放射科医生的工作远不止看片子

即使AI能够完美地解读扫描图像,放射科医生也不会失业,因为他们的工作内容远不止于此。

一项研究发现,放射科医生只有大约 36% 的时间用于直接解读图像。他们的大部分时间花在其他重要任务上:

    • 监督影像检查的执行过程。
    • 与主治医生沟通诊断结果和治疗建议。
    • 直接与患者沟通。
    • 培训住院医生和技术人员。
    • 审核影像检查申请并调整扫描方案。

这意味着,AI最多只能替代放射科医生工作中的一小部分,而他们可以将节省下来的时间投入到其他无法被自动化的任务中。

更好的AI,更多的检查

当一项任务变得更快、更便宜时,人们往往会更多地使用它。这在经济学上被称为“杰文斯悖论”(Jevons Paradox)。

历史已经证明了这一点:21世纪初,医院从胶片转向数字化系统,放射科医生的读片效率大幅提升。然而,没有一个放射科医生因此被解雇。

    • 需求弹性: 数字化使影像检查的等待时间从几天缩短到几小时。这使得医生更倾向于为病人安排扫描。
    • 工作量增加: 从2000年到2008年,美国的影像检查总使用率增加了60%。效率的提升最终导致了工作量的增加。

AI正在重复这一模式。通过让扫描和解读变得更快,AI实际上创造了更多的工作。最终的结论是,至少在目前,机器越好,放射科医生就越忙。