少数派 -- Matrix 10月24日 00:52
法律研究中AI工具的巧妙运用
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文作者分享了在法律研究和文书撰写中,如何有效利用通用大模型(LLM)和专业法律AI工具的经验。作者指出,过去对法律AI工具的期待主要集中在信息检索,但通用大模型的出现拓展了工具的边界,使其能够参与文本分析和生成。作者的创新工作流是将两个LLM对话框和一个法律AI产品(如律爱多)结合使用:一个LLM负责构建文书框架和初稿,另一个LLM处理衍生的细碎问题,而法律AI则用于验证内容。这种分工的目的是为了应对文书写作中的立场性问题,避免大模型因立场偏颇而产生“幻觉”,并优化AI处理上下文长度的限制。作者强调,通用大模型在“分析信息”和“生成文件”方面表现出色,可作为“创意伙伴”,而法律AI则因其“可溯源”的特性,更适合作为严谨的“核查员”,尤其是在需要精确依据的场景下。

⚖️ **创新的AI工作流:** 作者提出了一种创新的法律研究工作流,结合了两个通用大模型(LLM)和一个专业的法律AI产品。LLM 1负责文书的整体框架搭建和初稿撰写,扮演“程序员vibe coding”的角色;LLM 2则用于梳理和解决研究过程中产生的细碎问题;而法律AI(如律爱多)则专注于对生成内容的进行事实核查和验证,确保内容的准确性和法律依据的可靠性。

💬 **双LLM对话框的必要性:** 作者强调使用两个独立的LLM对话框的重要性。一个对话框用于文书主体内容的撰写,需要保持一定的立场导向;另一个对话框则作为“思考框”,用于中立地梳理和探讨有争议或尚未明确的问题,以避免文书中的立场性偏见影响对复杂问题的客观分析,并应对AI处理上下文长度的限制。

💡 **法律AI的“验证”与“可溯源”价值:** 作者认为法律AI的核心价值在于其“可溯源”性,即每个结论都附带明确的法条和案例索引。这使其成为法律研究中不可或缺的“核查员”,尤其是在需要严谨的法律依据进行论证的场景。相比之下,通用大模型更适合作为“创意伙伴”,在文书起草阶段提供更自由的文本生成和分析能力。

🔧 **工具职能的重新认知:** 作者反思了自己对法律AI工具职能的期待转变。从过去仅期待信息检索,到现在认识到AI能够参与“分析”和“生成”等更深层次的工作,作者将通用大模型视为“加工半成品乃至成品”的伙伴,而将法律AI定位为更专业的“检索+分析”工具,其价值在于保证法律内容的严谨性和可追溯性。


八月我写了一篇关于法律研究的经验分享,写完上篇后,下篇迟迟未发。主要原因是我总觉得自己用法律AI产品的思路似乎跟大部分用户相反,以至于我有点怀疑这些经验到底值不值得被拿出来分享。

到这周,我有点点感觉是哪里不太对劲了,问题可能主要在于我对当下不同AI工具的职能划分产生了误解。所以抛掉研究经验,我想先来捋捋自己平时做法律研究/写法律文书时的小小工作流,并借此琢磨琢磨对律师来说,现在到底什么发生了变化。

配置及经验分享我最常使用的研究配置是两个大模型对话框,一个法律AI产品(目前最常用的是北大法宝的律爱多),这三个角色起到的作用如下:

(1)LLM 1:主力,用于构搭框架,写文书初稿。可能近似于程序员vibe coding,先让AI生成基础文书架构,然后把自己认为对的留存,不对的删掉,输入新的指令重写,不断调试直至完成。

(2)LLM 2:用于梳理衍生的细碎问题。

(3)法律类AI(律爱多、元典问答、小威AI+ etc.):用于验证内容。

这个有些繁琐的配置,对应了我工作中的三个核心环节:文书起草、思路梳理和事实核查。下面我来分别解释一下为什么需要这样分工。

为什么需要两个对话框完成任务?快速回答版:

(1)实务中大部分文书存在立场,立场会诱导大模型往我方有利方向答复,这对思考有争议的问题非常不利。所以,一旦某些问题思考不清了,建议新开对话框进行讨论,不要让混乱的思考打扰文书主线。

(2)AI可以处理的上下文长度仍旧有限,把文书和争议内容都放在一个对话框里处理,内容过多时AI表现会下降。
 

展开讲讲版:

文书是有立场的,我认为这是工作场景下的文书和论文、报告最大的区别。为什么要强调立场?因为大模型经常被人诟病的一点是有幻觉、很谄媚,会被用户的提问引导,作出用户可能想得到的答复。这是目前模型的客观特性,可以是好事,也可以是坏事

这个特性对文书来说同样有好有坏:

(1)好的一面:文书需要在客观里寻找偏向性,以达到文书应该发挥的作用

律师大部分时间就是在客观里找主观,在争议里找偏向性。运气好,淘到了可以支撑自己立场的客观依据是最佳解法,运气不好找不到依据(案例、法条)怎么办,套套基本原则展开一番解释挣扎一下还是需要的吧>o<

怎么解释?怎么构建解释的语句?用哪些词?怎么用词?这里面其实有很多“幻觉”可以发挥余地的空间。

(2)坏的一面:自己也尚处于思索过程中的内容,如果对话本就预设了立场,你很容易被带跑

「坏」会在一个特定场景下展现得淋漓尽致:有些问题/思考/争议,我还没想清楚可行性,我需要进行一定的梳理。由于我自己也犹豫,这种情况下有人给了我明确的方向且出具了我认为可行的分析,我非常容易被这个观点带走。这种场景下,我需要更中立的分析来确保自己的方向不跑歪。

这也是我需要分成两个对话框来完成研究的原因。把我不确定的内容放到另外一个单独的对话框里进行讨论,可以确保大模型不会因为我文书中预设的立场(比如代理被告方,大模型很可能所有回答都会迎合被告方)来迎合我。

这一点我尝试过,有立场和没有立场,大模型的回答完全不一样。

思考框和法律AI的区别是什么?思考框的内容不能直接用法律AI产品完成吗?我把「思考框」当作提问的预处理。预处理是说,我还没有非常成形的问题,但需要提出一个问题。从模模糊糊有感觉到提出清晰的问题,这个思考过程以前靠漫无边际地搜资料、看文章完成的,现在可以直接靠AI加速。我一般写文书的过程中需要梳理思路的类型如下:

(1)整理思路:厘清自己琐碎的想法,找出下一步思考方向【找核心法律问题】;

(2)对有争议的内容进行讨论【不一定有明确的法律依据,但需要斟酌如何表达】;

(3)检索预处理【提炼关键词、找实质性问题】。

比较好理解的是(3),无非就是让大模型针对某个问题提供更多的检索关键词,针对(1)(2)我各举一个例子:

eg.1 厘清自己琐碎的想法,找出下一步思考方向

我现在有个关于租赁合同免租期的问题需要研究,我方是承租方。合同条款约定:租赁期限为10年,即自x年x月x日起至x年x月x日止。合同约定免租期为3个月,即从2024年3月16日起计租金。目前该租赁合同于2025年x月x日解除。现在我想研究的内容是,我们可否主张: 1、根据合同约定,我们应当从2024年3月16日起计租金,免租期的租金无需支付; 2、如需支付免租期租金,免租期租金的性质是什么?我们支付了免租期的租金还需要支付违约金吗?

我希望你可以针对我的描述,为我进一步厘清我需要思考的核心法律问题

eg.2 对有争议的内容进行讨论

 

保证金的首要功能是抵扣已判决的确定债务。 保证金的法律性质是为合同履行提供担保……被上诉人主张的“占用费”是一个未经审理的债权,不能对抗上诉人已支付的确定款项。 首先…… 其次…… 

(以上内容过多此处略过) 

我觉得这两个观点都很有启发,但我接着想问的是,未经审理的占用费用真的不属于合同解除后导致的损失吗?站在被上诉人的角度,他们会怎么辩驳这一点?我们应该如何撰写上诉状中的相关内容?

法律AI产品的“验证”是指什么?(1)法律问题很明确的,直接搜索寻找依据(法条、案例、文章)。

(2)针对大模型结论中不确定的部分,进一步用法律AI确认结论是否正确。比如Gemini给过我这么一个回复:

法律的基本原则是,不允许任何一方当事人,以一个未经审判的、不确定的或然之债,去对抗、扣押另一方当事人一个已经支付的、金额明确的款项。

听起来有点道理但似乎没这样的基本原则(挠头),这时候我会用律爱多做做检索(翻译),看看能不能找找更适合的措辞。

(3)涉及法条、案号等内容,我会直接查法条、查案例。

*这只是律爱多在法律研究中的使用方法。其实我还会用它做别的事,比如直接用它写不需要思考的程序类文书(eg.申请中止审理)它比大模型更专业。这个以后再盘。

我用现有法律AI工具用得很传统、很正派(笑)把上面的内容梳理完,我觉得自己用法律AI没啥不对的,我用得非常正派(?)我觉得自己用反了,是因为我对“工具”的期待发生了根本性的变化。

以前律师使用工具,期待往往是单一且明确的:获得信息。我们通过关键词在数据库中检索案例、法规和文章,工具的角色就像一个无限大的图书馆管理员,它负责响应指令,将我们可能需要的资料搬运到我们面前。但“搬运”之后,如何从海量信息中筛选、提炼观点,如何将这些观点组织成逻辑严密、符合要求的法律文书,这些“分析”和“生成”的工作,完完全全需要律师自己来完成。工具的终点,是我们工作的起点。

但现在,大模型的出现彻底改变了这一现状。现有技术可以提供的,不再仅仅是信息检索,它还能够分析文本、生成文本。这意味着,工具的能力边界已经从“提供原材料”延伸到了“加工半成品乃至成品”。当我意识到这一点时,我自然而然地会对工具有了更高的诉求,期待它能在我工作流的更多环节中扮演角色。

也正因如此,我一度陷入困惑,觉得自己把工具“用反了”。这种困惑的根源,在于我下意识地将从通用大模型上看到的、强大的“分析与生成”能力,错误地投射到了接入AI的法律工具上,期待现有的法律AI成为一个能包揽一切的“全能选手”。

但现在我认识到,这并非是我用反了,而是我对工具的职能划分有了误解。律爱多的本职,首先就是一个检索+分析工具,只不过它是响应更精准、交互更友好的高级检索工具。

这种“检索”的本职属性,决定了它的核心价值在于“可溯源”——它的每一个结论都必须附带案例和法条的索引,这是它作为法律工具严谨性的体现。然而,在很多工作场景下,尤其是在需要反复迭代、发散思考的文书起草阶段,我需要的并非是一个时刻提醒我“依据在哪”的核查员,而是一个“干净”的、能够不受拘束地生成文本、分析信息的创意伙伴。

所以过去必须由我自己完成的“分析信息”和“生成文件”这两项核心工作,我更愿意交给大模型。如今大模型的对话框几乎已经成了我的第二个Word面板,我至少有一半的文书内容是在与大模型的对话、修改、迭代中完成的。

我不再是从零开始逐字构建,而是像程序员vibe coding一样:先让AI生成一个基础的文书架构或段落,然后我来评判和筛选,保留正确的部分,删除或修正不妥之处,再输入新的指令进行重写。这个过程不断调试,直至文书的血肉被逐步填充,最终成型。

叽里咕噜的今天就先敲到这儿,写到结尾正好看到文马老师发了新文章法律AI技术路线和训练数据:从Harvey和Legora引发的感触》,一并作推荐。

就敲到这里,周末愉快大家!


 

 

 

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

法律研究 AI工具 大模型 法律AI 工作流 Legal Research AI Tools Large Language Models Legal AI Workflow
相关文章