Synth Daily

医生可能用ChatGPT来辅助诊断,你要不要也试试?

虽然 ChatGPT 能够基于海量医学文献提供诊断建议,有时甚至比人类医生更准确,但它并不能替代专业医生。其信息存在不准确和误导的风险,并且缺乏隐私保护。最佳的使用方式是将其作为辅助工具,帮助理解病情或准备向医生提问,而不是依赖它做出医疗决策。患者与医生之间关于使用 AI 的坦诚交流,是共同提升医疗效果的关键。

“ChatGPT医生”的双重面孔

将 ChatGPT 当作医生,就像将谷歌当作医生一样,结果可能正确,也可能导向灾难。它设计的初衷是易于接近、引人入胜且随时可用,这使其在医疗资源紧张的情况下,成为一个诱人的替代品。

  • 成功案例: 一位德国病人症状不明,在医生束手无策时,他将自己的病史输入 ChatGPT,得到了“兔热病”的正确诊断。
  • 失败案例: 一名美国男子询问食盐的替代品,ChatGPT 建议了用于清洁泳池的有毒物质溴化钠,导致他中毒并住院治疗。

这类工具可以消化海量数据,并基于医学期刊的训练得出专家级的结论。但它也可能给出 极其糟糕的医疗建议

正确与错误的使用方式

大约六分之一的美国成年人每月会使用 AI 聊天机器人获取医疗建议,但大多数人对其准确性持怀疑态度。这种怀疑是明智的,因为大型语言模型存在“幻觉”倾向,即编造事实。

  • 错误用法:

    • 依赖它进行诊断。 斯坦福医学院的专家警告,当它出错时,后果可能是“灾难性的”。
    • 相信它的一切。 聊天机器人有“谄媚”的倾向,可能会为了取悦你而提供错误导向。
    • 忽视更可靠的来源。 相比之下,谷歌搜索与梅奥诊所等机构合作,提供经过验证的医疗信息。
  • 正确用法:

    • 理解病情: 在医生给出诊断后,用它来帮助你理解复杂的医学术语或检查报告。
    • 准备问题: 如果你有一系列问题想问医生,可以用 ChatGPT 帮你组织和措辞。
    • 模拟对话: 在与医生就治疗方案做决定前,可以和聊天机器人进行对话演练,但不要向它寻求建议。

有趣的是,一项研究发现,在回答在线健康问题时,ChatGPT 的回复在 质量和同理心 方面甚至超过了真实医生的回答。但这并不能替代医生与患者在诊室里的真实交流。

重要的提醒:隐私问题

与你的医生不同,ChatGPT 不受 HIPAA(健康保险流通与责任法案)的约束。这意味着它几乎没有隐私保护措施。

  • 你输入的任何健康信息都可能被储存起来,用于未来模型的训练。
  • 你的数据理论上可能会出现在其他人查询的结果中。

AI 辅助医疗的未来

即使你不使用 AI,你的医生也可能正在使用。许多临床医生已经在使用 AI 工具来节省记录时间,甚至在复杂病例中寻求“第二意见”。

研究发现,在诊断测试案例时,单独使用 ChatGPT 的表现甚至略好于独立工作的医生,或与 ChatGPT 合作的医生。这并不意味着 AI 比医生更好,而是表明如果医生愿意倾听 AI 的分析,而不是先入为主地否定,可能会发现人类忽略的联系。

“普通医生能感觉到某些东西是幻觉或偏离轨道,但我不确定普通病人是否能做到。”

未来,AI 更有可能扮演医疗记录员的角色,为医生节省时间,而不是直接出现在诊所里。关键在于沟通。

“患者需要和医生谈论他们使用大语言模型的情况,坦白说,医生也应该和患者谈论他们的情况。如果我们都走出这个灰色地带,开诚布公地交流,我们的对话会更有成效。”