一半文书交给 AI 后,我重新理解了「法律工具」

这套工作流通过一个主力大模型(LLM)起草文书,一个辅助大模型梳理思路,再结合一个专业法律 AI 工具进行事实核查。核心观点在于,法律文书的“立场”会影响通用大模型的回答,因此需要一个独立的、无偏见的对话框来探讨不确定的问题。这反映了对工具职能的重新理解:通用大模型是优秀的“生成”伙伴,适合创意和草稿迭代;而专业法律 AI 则是严谨的“检索”工具,核心价值在于提供可溯源的精准信息。

我的 AI 工作流配置

我最常使用的研究配置是三个工具的组合,分别对应工作中的核心环节:

    • LLM 1 (主力): 用于搭建框架和撰写文书初稿。这个过程类似于编程,先让 AI 生成基础架构,然后我进行筛选、修改和迭代,直到内容完善。
    • LLM 2 (辅助): 用于梳理和探讨文书中衍生的细碎或不确定的问题。
    • 法律类 AI (验证): 用于核查内容,确认信息的准确性,例如查找法条、案例等。

这个看似繁琐的配置,实际上是为了解决文书写作中的一个核心矛盾:立场。

为何需要两个对话框?立场的重要性

在法律实务中,大部分文书都带有明确的立场,而立场会影响大模型的回答。

实务中大部分文书存在立场,立场会诱导大模型往我方有利方向答复,这对思考有争议的问题非常不利。所以,一旦某些问题思考不清了,建议新开对话框进行讨论,不要让混乱的思考打扰文书主线。

大模型具有“谄媚”的特性,它会被用户的提问引导,这既有好处也有坏处:

    • 好的一面: 当我们需要在客观事实中寻找对己方有利的解释时,AI 可以帮助我们构建论述,寻找合适的措辞。律师的工作很多时候就是在客观中寻找主观,在争议中寻找偏向性。
    • 坏的一面: 当我自己对某个问题还犹豫不决时,一个预设立场的对话很容易让我被 AI “带跑偏”。在这种需要中立分析的场景下,一个“干净”的、不受文书立场干扰的对话框就显得至关重要。

因此,我将文书起草和思路探讨分开,确保在思考不确定的问题时,能得到更客观、中立的分析。

“思考框”与法律 AI 的分工

我把辅助的 LLM 2 对话框称为“思考框”,它的作用是在我形成一个清晰问题之前的“预处理”。这个过程以往需要漫无目的地查资料,现在可以由 AI 加速完成。

主要用途包括:

    • 整理思路: 帮我厘清琐碎的想法,找到下一步要研究的核心法律问题。
    • 讨论争议: 针对没有明确法律依据、但需要斟酌表达方式的内容进行探讨。
    • 检索预处理: 帮我提炼关键词,更好地定位实质性问题。

这个“思考框”处理的是模糊、开放性的思考,而法律 AI 则用于处理更明确、需要精准答案的任务。

法律 AI 的核心任务:验证

当法律问题明确后,或需要核实大模型生成内容的准确性时,专业的法律 AI 工具就派上了用场。

    • 直接检索: 当问题明确时,直接用它搜索法条、案例和相关文章。

  • 确认结论: 针对通用大模型给出的不确定结论,用法律 AI 进一步确认。例如,AI 曾给出一个听起来很有道理但似乎不存在的“法律基本原则”:

    法律的基本原则是,不允许任何一方当事人,以一个未经审判的、不确定的或然之债,去对抗、扣押另一方当事人一个已经支付的、金额明确的款项。

    这时,我就会用法律 AI 工具检索,看能否找到更准确、专业的法律表述。

    • 核查引用: 涉及具体的法条、案号时,必须通过专业工具进行查证。

重新理解「法律工具」

这套工作流让我意识到,自己对“工具”的期待发生了根本性变化。

以前律师使用工具,期待往往是单一且明确的:获得信息。工具的终点,是我们工作的起点。但现在,大模型的出现彻底改变了这一现状。

    • 过去的工具: 像一个图书馆管理员,负责响应指令,“搬运”资料。律师需要自己完成后续所有的筛选、分析和组织工作。
    • 现在的工具: 不仅能提供信息,还能 分析和生成文本。工具的能力边界从“提供原材料”延伸到了“加工半成品”。

我一度认为自己将工具“用反了”,因为我期待法律 AI 能包揽一切。但现在我明白,这是对不同工具职能的误解。

专业法律 AI 的本职是 检索与分析,其核心价值在于 “可溯源”,保证了法律工作的严谨性。而在需要反复迭代、发散思考的文书起草阶段,我更需要的是一个不受拘束、能够自由生成内容的 创意伙伴,这个角色由通用大模型扮演更合适。

如今,我的大部分文书内容都是在与大模型的对话、修改和迭代中完成的。我不再从零开始,而是让 AI 生成初稿,我再进行评判、修正和重写,逐步填充血肉,直至文书最终成型。