一项针对美国法院中“AI幻觉”案例的分析显示,绝大多数(90%)提交了包含AI捏造内容的法律文件的律师来自个人执业或小型律师事务所。其中,原告律师(56%)比被告律师(31%)更容易犯此类错误,而 ChatGPT 是最常被提及的AI工具。这一现象揭示了小型律所在效率压力下对AI的依赖,以及AI工具在宣传其可靠性与实际表现之间的巨大差距,最终给客户、律师和整个司法系统带来了额外负担。
谁在提交“AI掺水”的法律文件?
对114个美国法院案例的分析揭示了几个清晰的模式:
- 原告方是主要提交者:在存在问题的法律文件中,56% 由原告律师提交,而被告律师提交的占 31%。
- 小型律所占绝大多数:90% 的案件涉及个人执业者或规模在25人以下的小型律师事务所。其中,个人执业者占了所有案件的一半(50.4%)。
- ChatGPT是首要工具:在明确提及所用工具的案件中,有一半(18起)都与 ChatGPT 的某个版本有关。Westlaw、Claude和Copilot等工具紧随其后,但数量远不及ChatGPT。
为何小律所和原告律师更容易“中招”?
分析表明,对AI的错误依赖并非随机发生,而是与律师事务所的结构和工作压力密切相关。
法律行业正面临使用人工智能的巨大压力。
对于那些案件量繁重、人手不足的个人执业者或小型律所律师而言,AI工具似乎是解决时间紧迫和资源匮乏问题的“救星”。这些工具承诺能快速完成法律研究,从而节省宝贵的时间。然而,这种期望与现实存在巨大差距。
研究发现,即便是声称“无幻觉”的专业法律AI工具,也存在高得惊人的错误率。律师们在不了解其局限性的情况下,过度信赖这些工具,最终导致了错误的发生。
“AI幻觉”的现实影响
提交含有虚假信息的法律文件所带来的后果是广泛且严重的,它影响了司法程序的每一个环节:
- 损害客户利益:客户依赖律师提供高质量的代理服务,尤其是在刑事诉讼或家庭权利等高风险案件中,错误的法律引用可能直接危害案件结果。
- 浪费对手方时间:对方律师不得不花费额外的时间和精力去核实并指出那些根本不存在的案例引用。
- 加重法院负担:本已繁忙的法院系统需要花时间来处理这种新型的律师职业道德违规行为,并确保其判决意见不被这些虚构的案例所“污染”。
如何应对这一问题?
尽管相关警示和培训不断出现,但此类事件仍在以惊人的速度发生。要真正提高律师们对AI工具风险的认识,可能需要更强制性的措施:
- 法院强制声明:要求每位律师在出庭时签署文件,确认自己了解AI工具的不可靠性。
- 强制性继续法律教育(CLE):各州律师协会应强制要求律师参加关于AI工具在法律研究中应用的专门培训。
即便如此,错误仍会发生。最终的原则必须是:信任,但要核实。律师对提交的每一份文件负有最终责任。
一个被忽视的群体:无律师代理的诉讼人
分析中有一个更令人担忧的发现。在数据库中,除了涉及律师的114起案件外,还有 160起 案件涉及没有律师代理的诉讼人(pro se litigants)。
这意味着,在提交AI生成虚假信息的案件中,自己为自己辩护的普通人占了大多数。在一个法律代理费用高昂的国家,这些人依赖免费或低成本的AI工具来处理自己的案件,却反被这些工具的缺陷所“背叛”,这无疑是一个巨大的问题。