【作者】李学尧
【内容提要】
大语言模型应用中的司法偏误与认知干预
李学尧 上海交通大学凯原法学院教授、中国法与社会研究院企划委员会委员
摘要:近期的实验研究和司法实践都表明,单纯依赖简单的人机协作,难以有效遏制法官在自我确认偏误与大语言模型“强化输出”之间的共振效应。为避免大语言模型在司法实践中沦为单向度的技术支配,在挖掘传统法学方法论中关于多元价值论证的基础上,可结合认知科学的防偏误机制,提出“认知协同司法决策模型(六步法)”。该模型通过在确立争点、规范检索、事实认定、裁判形成、价值审查与最终公开说理的全流程中引入对立论证、逆向思维、强制反驳清单等操作环节,帮助法官保持深度审查与反思能力,抵消大语言模型单一输出的强化效应。案例模拟表明,这一模型在提升信息搜索效率的同时,能够强化裁判对社会多元价值的考量,确保法官主体地位与裁判公正性。
一、问题缘起:大模型司法应用中的机器权威与偏见回声
生成式人工智能的快速发展,正在深刻改变司法领域的技术生态。近年来,生成式人工智能的能力逐渐扩展到法律推理与裁判文书自动生成的深层环节。这种技术进步给司法实践带来了显著的效率提升,却也不可避免地引发了关于公正性、可信度以及如何安全监管的广泛争议,并触发了如何有效维护“法官主体地位不变”的深入讨论。在现有的法律框架下,人机协作的主流理念通常强调“人工把关”,即让法官在最终决策阶段对伦理、价值和社会后果进行复核,并适度修改人工智能生成的裁判理由。这种思路尽管在程序上看似保留了人类对司法判断的最终控制权,但无法从根本上应对生成式人工智能在法律推理过程中带来的“机器权威”问题及其潜在风险。
近年来,笔者及合作者通过一系列实验模拟了大语言模型在裁判理由生成过程中的作用,揭示了这种过程如何削弱法官在“撰写理由”环节中应有的深度理性反思。实验证据显示,“机器权威”现象容易引发严重的“偏见回声”效应,即法官初步判断中的偏见与大模型生成的强化输出之间产生认知共振,从而固化了原有的误判倾向。进一步的访谈表明,许多法官在将裁判理由初步生成任务交由人工智能处理时,由于时间压力或对机器输出的信任,通常只进行表层性修改,缺乏必要的深度反思。由此,传统的人工审核模式不仅不足以抵消人工智能带来的认知失衡,而且可能进一步加剧司法偏误。
这一问题的根源在于,生成式人工智能在深度学习海量裁判文书与法律文本时,不仅受到技术算法本身的影响,而且不可避免地受到人类系统性认知偏差的干扰。大语言模型在应用层面上并非绝对中立的工具,而是通过利用多层次的语境关联和向量空间模拟语言模式,在数据中捕捉到某种“主流倾向性”。这种倾向性可能表现为对强势权利方的过度保护或对弱势主体和创新主体利益的忽视。当大语言模型生成裁判理由时,其依据的语料和分析逻辑中固有的偏见就会被复制和强化。与此同时,由于其高度仿真的语义分析能力,使用者很容易产生心理惰性,甚至对机器输出形成权威性迷信或拟人化信任,从而进一步削弱了裁判过程中对价值考量与社会平衡的必要审视。
因此,在生成式人工智能应用司法实践的背景下,简单地在理念上将人工智能限定为“工具性辅助”,并通过人工进行伦理或价值把关,显然不足以消除生成式人工智能的“机器权威”效应。要真正解决这一问题,必须从传统法学方法论的核心出发,将其“多元价值对话”与“公共理性建构”的理念和认知科学中“防偏误”机制相结合。传统法学方法论中关于论辩性裁判与价值平衡的理论基础,为生成式人工智能在司法领域的应用提供了深厚的思想支撑,而认知科学关于决策偏误与反思机制的研究,为设计更科学的裁判流程提供了技术路径。
二、理论基础:法学方法论的多元化扩展与认知科学启示
在生成式人工智能的背景下,法律推理不再仅是封闭式的逻辑演绎过程,而是深度嵌入多元价值对话、社会共识建构以及法官自身的认知机制。既有的法学方法论,尤其是重视多元价值论辩和社会共识建构的学说,早就提出了超越传统“主客观”或“形式逻辑—社会价值”二元对立的思考路径;认知科学的研究则提供了理解法官心理与决策过程的新视角以及实证证据。二者的结合能够解释大模型技术的介入为何在提升信息整合与推理效率的同时,也会放大偏误风险,并为人机互动背景下如何设计更完善的裁判流程提供理论依据。
(一)传统法学方法论及其对二元对立的突破
在近代法学的早期,为了形成一种高度理性化且相对封闭的解释体系,概念法学或者形式主义法学发展出了一种“形式逻辑—价值判断”或“主观—客观”二元区分的体系化思路。伴随着概念法学或者形式主义法学在实践应用中所产生的各类问题,特别是社会关系的日益复杂以及多元利益主体的出现,后续理论一直在反思和突破这一路径的局限性,转而引入修辞学、公共议论、比例原则等多维分析工具,意在超越机械的二元对立,建立更能兼顾事实、规范与价值平衡的法学方法论。
第一,从形式逻辑到价值论辩。近代早期的法学,特别是概念法学和形式主义法学早期注重通过形式逻辑保持裁判的客观性与可预测性。然而,司法实践反复表明,仅靠形式逻辑无法处理复杂案件中的价值冲突和社会需求。例如,佩雷尔曼提出的“新修辞学”主张通过论辩将法律判断与社会共识相结合,使裁判者站在多元受众的立场进行解释和说服。这种对价值与事实间动态平衡的强调,为复杂案件提供了超越机械逻辑的裁判思路。因而,在当代法学实践中,人们对于法律推理的要求不仅停留于法条或先例适用,也越来越强调说理过程中的社会意义、情感理解和公共说服力。甚至有学者从演化心理学(基于人类情绪的演化价值)的角度出发,认为愤怒等情绪反应也是法律推理中可以接受的情感。
第二,权利衡量与比例原则的应用。阿列克西从宪法权利冲突的视角出发,引入比例原则,倡导裁判者在不同价值权衡中保持灵活性和自洽性。这一点在生成式人工智能参与裁判时显得尤为重要。大语言模型可能给出“固定化”或“倾向性”结论,而比例原则等法律原则或者制度机制提醒法官不断校准并权衡具体情境中的多重利益。
第三,法律议论理论的多元共识建构。最近,有从事法律与人工智能交叉研究的学者借鉴哈贝马斯的“交往行动理论”,提出“法律议论”作为动态的社会对话过程。这一理论强调,法官裁判不仅是规则的简单适用,而且是社会文化、公众需求与法律共同体共识的动态交汇。在生成式人工智能融入司法的情境下,这一理论为处理技术倾向性与社会多样性提供了坚实的理论基础,特别是在强调多元对话与公开说理方面。
上述理论均致力于打破简单的“主观—客观”或“逻辑—价值”对立,强调在复杂情境下应结合价值论辩、修辞与比例分析。它们为大模型技术在司法领域的应用提供了理论土壤。如果方法得当, AI不仅可带来更强的信息处理能力,而且能避免大模型技术引发的单边倾向甚至误导裁判过程的问题。
(二)司法决策的认知理论机制:从“双系统思维”到“人机增强偏误”
与法学方法论在制度层面提供的多元对话框架相比,认知科学则从实证角度揭示了法官如何在不同心理机制下做出判断,并指出人工智能的介入会对这些机制产生显著影响。
第一,系统1与系统2的双系统思维模型。近年来,认知心理学研究广为接受的一种观点是“双系统思维模型”,由卡尼曼(DanielKahneman)等学者提出。该模型区分了系统1与系统2。系统1负责快速、直觉化、情绪化的决策,能够在瞬时环境中迅速做出反应;系统2则以慢速、深度分析和逻辑推演为特点,重视审慎评价。对法官而言,裁判文书的撰写过程通常被视为一种典型的“强制理性化”的行为,通过“强制”法官启动系统2,从而使其更深度地推敲案件事实与法律规范,促使其对判断逻辑进行自我审查,并为有效消除偏见提供关键契机。相关一系列的实证检验也证实了这一点。
第二,偏误放大与“增强偏误”效应。在笔者与合作者所做的另一组行为实验中,通过刻意刺激司法偏见,研究者发现与“自写裁判文书组”相比,“人工智能辅助组”的法官更容易固化初始结论。换言之,大模型输出作为一种“强化工具”,会让法官忽视原本应该进行的自我纠偏,从而出现所谓的“增强偏误”效应。这种“增强偏误”效应不仅导致裁判理由在形式上更具说服力,而且使得法官更难通过再次推敲或跨组讨论去检验自身的确认倾向,从而在不经意间放大了既有判断中的偏误。
第三,逆向思维与偏误干预。认知科学的另一个重要贡献在于“逆向假设”和“对立面呈现”策略。实证检验证实,通过在生成的法律文书中主动构造对立情境并验证假设,“人工智能辅助组”的法官被有效地激活了系统2的反思能力,从而有效地遏制住了前述实验所诱发的“增强偏误”效应。实验结果初步说明,在智慧司法场景里,在面对人工智能生成的单一结论时,法官如果被要求对立论证或重构不同的假设情境,将更可能发现人工智能输出中的漏洞或忽略的因素。这一研究不仅以科学的方式进一步证实了正当程序原则中对立面设置的必要性及其法治意义,而且它的刺激物设计方案,事实上就是认知干预的重要形式,可以为法官在技术辅助下保持理性独立提供操作指南。
(三)融合法学方法论与认知科学理论:认知干预的机制设计
综合上文所述,生成式人工智能在司法裁判中的应用,既有潜在优势,也暗含诸多认知风险。大语言模型能够显著提升信息整合与检索效率,但不应因此替代司法过程中的多维价值论辩,而后者是司法公正和司法公信力的核心。将法学方法论与认知科学相结合,可从两个层面提出有益启示。
第一,认知干预原理:对立面的设置与激发系统2的理性反思功能。从20世纪70年代、80年代法律与传统心理学的早期交叉研究,到20世纪90年代以后法律与认知神经科学、法律与认知心理学、法律与行为经济学的进一步融合研究,一系列行为实验持续不断地结构性证实主流法学的规范性理论主张及其制度设计理念的科学性。这种理论探索,一方面融合了现实主义法学和形式主义法学的理论传统,不仅要求法官在解释法律时考虑条文本身的逻辑,而且强调将案件置于社会文化、历史背景和公众期望中进行综合考量,从而构建出既具法律严谨性又有社会适应性的裁判机制;另一方面,它也昭示着,从个人决策角度来说,正当程序原则的主要意义在于,强迫法官启动系统2,从而启动理性反思能力。因此,针对“机器权威”效应,可以设置逆向假设、对立面论证或交叉质询等程序,使法官在接受AI生成文书后,仍须主动进行理性审查,避免偏误被放大或固化。这既延续了法学追求公正与适度理性反思的传统,也利用技术本身提供的多样化信息,为法官深度思考创造条件。
第二,认知干预原则的技术化:兼容技术、公正与效率的裁判流程设计。要想在司法实践中最大化地利用AI的效率优势,同时防止偏误放大,需要在制度层面融入多学科研究成果。立法或司法政策应鼓励对AI辅助程序进行持续评估和对立面验证,并赋予法官在关键结论上“质疑机器”的义务或机会。在具体政策思路上,就是需要与各类司法智能辅助系统相结合,提出具体的接口设计或者功能模块开发方案。只有这样,才能在尊重司法公正与保障程序正义的前提下,将大模型技术合理地纳入裁判体系。当然,反过来,在兼容技术与公正的认知干预过程中,也仍需注意效率与公正的平衡,对于法官的时间成本仍需做细致的量化分析(如强制逆向检索环节的耗时占比),并提出优化策略(如预训练对立案例库、自动化反驳清单生成),以契合数字司法“提质增效”的核心目标。
三、认知协同决策模型:融合法学多元方法与工作流思路的认知纠偏机制
正如上文所述,在大模型技术融入司法裁判的实践,要真正防范可能出现的“机器权威”效应,不能仅停留于让法官在最后环节做一次伦理或价值的形式性检查,而应在从确立争点到最终公开说理的全过程中均纳入对人机交互的认知审慎设计。基于前文对法学方法论多元扩展的阐述以及认知科学对“偏误共振”的洞察,此处通过可分解校验规程来嵌入裁判流程,旨在从根本上遏制单向度的技术支配,帮助法官兼顾效率与社会价值目标。
考虑理论完整性、操作性和可推广性,参考邹碧华法官的“要件审判九步法”,同时借鉴认知科学已有研究常将决策过程分为六个步骤的思路(问题识别、信息检索、事实归纳、初步判断、深度反思以及最终公开说理),笔者设计了以下“六步法”来构建人机协同的司法认知纠偏机制。
(一)第一步:确立争点与初步分析(主动与AI对比)
该阶段,法官理应依照法律议论理论的核心主张,尽量呈现多方主张而非简单一元化的信息筛选。法律议论强调公开、多元与协商,要求法官在开始审理时主动吸纳多种观点,以便让社会对话和公共理性能够在案件早期获得表达空间。这也是实现司法审判实质化的重要前提。为防止大模型“先(二)第二步:检索法律规范与既有案例(双向验证)入为主”地单方面界定案件要点,此步骤需法官先自行提炼争议焦点,然后再让AI根据案卷材料自动生成一份平行争点列表。通过这种“先人后机”的顺序,可在认知层面抵消大模型对问题设定的支配效应。接着,法官必须将自己与AI各自的争点列出并进行逐项对照,说明差异点以及采取或舍弃某些观点的理由。此举不但强调了法官自身的专业主体性,而且能够即刻遏制大语言模型对“问题框定”的强势影响,避免法官在缺乏独立思考的情况下就被机器所提供的争点定义所左右。在这样的基础上,法律议论理论倡导的“多方对话”与“对立面呈现”,在此环节即可初步实现。
(二)人机协同审判“黑箱化”与司法责任制
法律论证通常离不开对法律条文、司法解释以及先例的整合。在实际操作中,法官需要综合演绎、归纳和类比推理,结合体系解释与立法目的解释,从而找到最契合个案特征的规范依据。传统法学方法往往要求法官在检索时兼顾相似与相异案例,以便完整呈现法律适用的可能范围。由于大语言模型可快速抓取海量文本并给出“似乎合理”的法条或案例列表,法官便更易陷入“确认偏误”,只接受AI找出的有利依据。为此,应对AI给出的检索结果实施“反向查找”机制:让AI同时列出与法官初步判断或有冲突的法条、判例与学说解释,并要求法官对这些“对立案例”做必要评估。这一做法显然呼应了法律议论的“对立面论证”精神:只有在多元话语格局下,才能让法官真正了解到该问题的争议点与多种规范路径。
此环节塑造了一个多角度的检索和思考环境,避免法官只依赖AI所罗列的“最常见或最有利”依据。当法官同时接触到不同判例与对立说法,便会更谨慎地进行衡量,不会轻易接受机器输出的单一结论,从而大幅减少“机器权威”在规范检索阶段就确立的先发优势。
(三)第三步:事实与技术复杂性识别(逆向思维训练)
案件事实从来都不是纯粹的客观事实,而始终经过司法程序的规范化塑造。因此,司法判决过程中决不能简单地接受或默认机器对所谓“客观事实”的描述与认定,以避免潜在偏误对司法公信力的损害。所谓“超越主客观二元”,即承认法官需要同时审查行为人内在动机与外在社会情境,在整合解释下方能避免简单机械的事实定性。正如大量研究证实的,大语言模型通常会对案件事实材料进行摘要或自动归纳,为法官展示一幅“精炼化”的案件事实图景。然而,这种摘要可能带有隐性偏见或错误归纳。故而可设计一个“逆向假设”环节,在AI给出事实提炼后,要求法官主动想象“若关键证据存在瑕疵或相反说明,该案件事实是否会有不同解读”。这种刻意的逆向思维训练,能激发法官对证据和事实进行更深入的质疑与检验,防止“机器给什么我就信什么”的思维依赖。通过“逆向思维”让法官在事实认定上保持敏感度和独立思考能力,减少对AI的盲目信任,从而避免“确认偏误”在事实环节就被固化。也只有在事实认定阶段就强化质疑精神,后续才更可能对大模型生成的理由保持理智审查态度。
(四)第四步:初步裁判与AI生成理由(避免“一锤定音”)
依据演绎、归纳和类比推理,法官应先综合前面三步(争点、法律、事实)的信息,形成一个初步裁判结论,这既是对传统法学推理技术的运用,也有利于维护法官在司法过程中的主体地位。在这一时刻才让AI介入,以“根据法官初判生成支持性理由”来撰写草稿,同时自动生成另一套与初判对立或不同倾向的理由。这样,法官就能对比两套AI输出,并且在文书或内审系统中,对自己为何采纳一套论点、舍弃另一套论点,进行书面阐述。此过程类似于法律论证中的“多选项权衡”,要求法官对不同可能性进行解释,以体现其合理性。此步骤的主要目的是避免在裁判环节形成“一锤定音”的思维定式。若AI只给出与法官初判一致的理由,法官极易陷入“路径依赖”,错失纠错机会。通过对立观点的呈现,可以强化法官对初判的审视,也让法律论证过程显得更具对抗性与透明度。
(五)第五步:价值审查与论证完善(重塑“写理由”的反思功能)
恰如法律议论与比例原则所揭示,法律推理最终需要在社会效果、伦理价值与个体权益之间取得平衡。特别是在争议复杂的案件中,法官不仅要考虑法律条文的形式逻辑,而且需评估公共利益、权利冲突以及社会情感需求。
正如前文所述,笔者与合作者的实证研究显示,若法官只做“形式性改写”AI生成的理由,往往会忽视对深层偏见的纠正。故此,可在该阶段设计强制性“反驳清单”。例如,由系统或管理机构列出若干潜在疑点或价值冲突点,要求法官在裁判文书初稿中对每一点做简要但有针对性的回应。如此一来,法官就必须重新组织理由、再度投入系统2(理性反思)来检验初步判断的合法性与合理性。
实施此步骤的目的是通过让法官亲自书面回应所有可能的质疑,协助其发现前期可能被忽视的漏洞,也使得整套法律论证更符合“公共理性”标准、生成“司法裁判的弹性机制”,避免出现对AI理由的惯性接纳。此外,这种程序性要求还能让法律文书更加具有可读性与说服力,恢复原本“写理由”所承载的反思功能。
(六)第六步:公开说理与判决落脚(透明化人机交互)
随着信息技术和人类认知的迭代,当代司法实务日益强调程序正当与裁判透明,要求法官在判决书中展现对争议事项的考量过程,便于社会理解并接受裁判结果。大量实证研究也证实了司法公开于法治秩序的重大意义。在大语言模型应用的场景,若要真正化解“机器权威”的隐蔽影响,需在公开说理与内部监督层面同时推进。第一,公开说理:判决书或内部档案需明确记录AI参与度,如“本案判决理由草稿由大模型提供初稿,法官在第五步根据反驳清单进行了修订”。第二,合议或监督:强化合议制、院领导审核或专家辅助评估,对AI深度介入的案件进行二次审读,验证是否存在明显的偏误共振。第三,外部监督:通过这种制度化的透明度,不仅能够警示法官“需为AI输出负最终责任”,而且让诉讼当事人与社会公众看到人机协同细节,从而建立对司法机关的更多信任。若在上诉或再审阶段发现AI导致了明显失误或偏见,也可更轻松地溯源与纠正。
综观以上“六步法”,其核心是将传统法学“多元对话、价值权衡、公开说理”的方法论与认知科学“防偏误机制”有机融合,通过设计一系列双向验证、对立论点、逆向假设与反驳清单等程序环节,确保法官在使用大模型的过程中始终保持主体地位与深度思考。不论是在事实认定、规则适用还是价值衡量环节,大模型都不能一锤定音,而仅是向法官提供多维参考;真正的决策自主与认知审慎则仍然掌握在法官手中。这样一来,“机器权威”就难以主导司法过程,反而可以帮助法官在多角度论证和快速信息比对的基础上,给出更全面、更公正、更理性的判决。
从系统建构角度来看,该模型不仅是一种方法论方案,而且具备明确的工作流属性。其通过阶段性流程设计、任务递进逻辑、操作控制机制与认知反馈机制,实质上体现了流程治理中常见的节点管理与功能分配逻辑。因此,该模型亦可被视为一种程序性裁判协同架构,未来在司法信息系统开发中,具有作为结构化裁判辅助工具嵌入的技术可行性与制度正当性。
四、拟制案例分析:当著作权与非人类主体相遇——从偏狭预测到人机协同修正
为了凸显大语言模型在司法实际应用中所面临的“偏狭风险”,下文将规程化模拟大语言模型技术参与“奥特曼生成案”,来探讨其在争点确定、法律规范与案例检索、归纳事实与初步裁判结果中的表现及其可能的倾向性问题:大语言模型基于中国裁判文书网及其他中文法律文本的学习,可能会表现出偏向强势权利方的结论或倾向性,而这将对司法公正以及对社会创新和多元化造成潜在侵蚀。在此基础上,模拟应用认知协同决策模型,通过案例的方式展现认知干预消除司法偏误的可能效果。
(一)预测语料库的偏狭性:倾向保护强势版权方
在中国裁判文书网,以“著作权”“改编权”“卡通形象侵权”等关键词进行检索时,可以发现大量判例都更倾向于认定:一旦被告使用了较为知名的角色形象或动漫形象,通常会被裁定侵权,且赔偿金额较高。基于这种裁判倾向,中文语料库中有关“强势版权方胜诉”的判例数量、案例引证和官方解读远多于涉及“合理使用”或“同人创作”免侵权的材料。大语言模型在训练过程中,极有可能通过学习这些案例而进一步强化偏向保护强势权利人的倾向。
这种倾向性可能在“奥特曼生成案”的案件分析中带来显著的风险。虽然,这个案件牵涉“人工智能著作权合理使用制度的重塑”问题,但当AI自动分析案情(例如“二次创作”或“改编演绎”等)并生成裁判理由时,极有可能直接引用“强势版权保护”的先例和论证逻辑,而忽略或极简化对“合理使用”或“小范围同人再创作”的分析。最终,平台或用户一方的行为可能在AI输出中被过度“否定性”处理。如果法官未深究,可能直接接纳这些带有偏狭嫌疑的裁判基础,导致裁判结果缺乏对创新行为评价的全面考量。笔者领衔的课题组通过“奥特曼生成案”测试“通义法睿”“法观”等中文法律类大模型,发现若不提供明确的观点提示或者指令,在其辅助生成的裁判文书中,结果都偏向于权利方,这就初步证实了这种倾向。例如,模型生成的典型理由包括:“涉案生成图像与原角色的核心识别特征高度相似,构成实质性侵权”;“用户或平台的再创作行为缺乏充分的原创性程度,难以适用合理使用或者同人创作的免责标准,故倾向于认定权利方胜诉”;等等。
(二)应用认知协同决策模型模拟人机协同下的纠偏
针对上文提及的语料库引发的问题,设想通过认知协同决策模型的助推式干预,可以在一定程度上有效纠正大语言模型在案件处理中可能存在的偏狭倾向。值得注意的是,此处仅限于设想推演,其目的主要是在法律适用的场景里能更好地理解认知协同决策模型,而非采用了规范的实验方法的检验结果。
第一步:确立争点与初步分析。法官首先应独立提炼案件的争点。例如:AI生成的图像与原角色高度近似,是否触及“商标或著作权改编”的实质侵权?如果用户贡献有限,这种行为是否仍存在“合理使用”或“同人文化”的视角?然而,AI自动生成的争点列表往往可能将“用户侵害版权”视为既定事实,并对“合理使用”仅进行简单提及或忽略。此时,法官需要主动对比自己的争点与AI列出的焦点,尤其要阐明为何仍需深入讨论“二次创作空间”,以避免AI对争点的模糊化处理。
第二步:检索法律规范与既有案例(双向验证)。AI通常会利用裁判文书网和学术资源检索大量支持版权胜诉的判例,并自动提供类似“卡通形象改编必然侵权”的先例。然而,法官可以指令AI反向检索一些“改编不构成侵权”的判例,例如涉及非营利同人作品或短视频改编案件中,部分法院对“合理使用”的灵活解释。通过这种强制对立查询,法官可以避免只接受“强势版权人必胜”的单向输出,从而形成更平衡的规范来源。
第三步:事实与技术复杂性识别(逆向思维训练)。如果AI根据权利人提供的证据和既有判例,将事实认定为“深度相似”或“商业化牟利显著”,法官需要加入“逆向假设”环节。例如,假设用户上传行为主要出于粉丝兴趣,平台在管理上具备一定的查漏机制,且商业化程度较低。这种逆向思考促使法官重新审视AI对事实的单向强调,从而避免忽视创作行为背后的实际情况。
第四步:初步裁判与AI生成理由(避免“一锤定音”)。当法官形成“可能偏向认定侵权”的初步裁判意见时,AI自然会生成“支持版权人胜诉”的充分理由。然而,按“六步法”的要求,AI必须同步生成另一套对立的裁判理由,例如探讨“图像变化度不足以实际伤害版权人商业利益”或“高度近似未造成市场混淆”等可能的抗辩理由。通过强制生成对立意见,法官需要就两种裁判理由的优劣做出明确说明,从而避免初步裁判结果“一锤定音”的倾向。
第五步:价值审查与论证完善。AI往往会列举多个支持商标和版权保护的判例,强调其严苛的保护标准。然而,法官需要在“反驳清单”中详细回应以下问题:哪些事实与前案不同?为何本案需要为用户留出适度的再创作可能性?通过这一真实反驳的文字写作过程,法官能够更深入审视AI的输出是否忽略了用户自治与文化衍生等公共价值。
第六步:公开说理与判决落脚(透明化人机交互)。在最终判决中,法官需要明确披露AI基于中国裁判文书网所提供的“版权胜诉”判例及其逻辑,并同时列出少量支持被告的先例,阐明如何在平衡之后得出最终结论。这种透明化的人机交互记录便于合议庭或上诉机构追溯裁判过程,确保程序的公正性。
(三)认知协同决策模型的模拟结果
通过上述过程,纵然大语言模型基于大量版权胜诉的判例倾向保护权利人,依然可以推断法官通过“六步法”的程序逐步修正偏向,形成更加全面且平衡的裁判逻辑。在兼顾对权利人保护与社会创新需求的同时,也有效避免了“机器权威”可能放大对弱势一方或创作自由的不利影响。最终,法官不仅能够充分利用AI的文本生成优势,而且可以有效提升裁判过程的合法性与社会接受度。
在认知协同决策模型的引导下,人机协同纠偏描绘了一幅更优化的司法图景。一方面,相关机制能够化解“机器权威”可能导致的风险,使法官能够保持专业理性与裁判自主性;另一方面,他们充分保留了人工智能在法律检索和初步推理中的效率优势。同时,通过动态干预与持续迭代,大模型可以逐步学习更平衡的裁判逻辑,从而减少其对语料库中既有偏向的依赖。通过这一模式的推广应用,我们坚信这种人机协同纠偏机制展示了未来司法领域技术与人类智慧有机结合的广阔潜力。
五、结论:数字正义视角下认知协同决策模型的意义及其展望
认知协同决策方法的目标是为技术驱动时代重塑法官主体性地位与司法正当性边界提供理论依据和实践路径,并在“坚持法官主体地位不变”的共识下,为未来在不同司法领域推广人机协同决策机制努力提供有效智识启示。借助该方法,法官或许能够在每一个关键环节主动激活理性反思,避免过度依赖大语言模型生成的初步结果,从而在复杂的司法决策中更好地平衡多元利益和社会正义、兼顾效率与公正。
(一)核心价值追求:技术重塑司法与坚守法官的主体性地位
在生成式人工智能重塑司法生态的浪潮中,唯有人类在认知、价值与规则层面始终占据主导地位,机器才能真正成为服务司法公正的工具,而非侵蚀理性与公正的威胁。因此,需要通过持续的、制度化的认知审慎设计,将技术效率转化为对法治价值的守护力量。笔者的思路是,借助大语言模型的算力优势拓展裁判信息的广度,但又通过逆向假设、对立论证与透明说理等技术性正当程序保留人类反思的深度。这种“技术向善”的司法范式,既是对“算法黑箱”与“偏误共振”的主动防御,也是对“数字赋能”与“人性主导”辩证关系的回应。
若将数字司法的终极目标锚定于“通过技术实现更高层次的公平”,那么“六步法”等类似的认知干预机制的意义便在于:它以法官的主体性为支点,去撬动人机协作中效率与公正的杠杆平衡。当强制反驳清单成为抵御“机器权威”的认知盾牌,当逆向检索为弱势视角打开司法对话的窗口,技术可能就不再会是吞噬理性的“利维坦”,而是转化为辅助多元价值共生的“脚手架”。这种以“数字正义”“技术性正当程序”等“数字法治”为内核的实践路径,既试图为当下司法智能化提供风险控制的可操作思路,也努力为未来“人与机器共治”的法治图景标注伦理坐标。一言以蔽之,唯有始终将技术约束在人类理性与法律价值的轨道之内,算法驱动的效率红利才能真正服务于“让人民群众在每一个司法案件中感受到公平正义”的终极使命。
(二)核心理论思路:超越两元思维
第一,融合传统法学方法论与认知科学的探索。“六步法”并非推翻已有的法律论证或法律议论理论,反而旨在将其对“多元价值对话”“公共议论”“情境综合”的核心理念与认知科学对“防偏误”与“理性校验”的技术手段相结合,是传统法学方法论在人工智能时代应对技术迭代的新发展。
第二,从“依赖AI”(经验理性)到“审慎利用AI”(技术理性)的思维转变。传统数字司法或者智慧司法的理念往往强调效率:“让机器做更多,使法官负担减轻”。但当大语言模型不再只是检索工具,而能部分替代法官“写理由”——这一关乎裁判者人性深度与理性反思的核心环节时,如果不加防范,极易走向“机器一言堂”。相比之下,“六步法”提倡的是“审慎利用”。
第三,兼顾效率与正义的制度化保障思路。“六步法”注重程序性安排:强制对立面呈现、逆向思维训练、公开化说理与责任留痕等,都属于一种制度上的先行设计。通过这样的“程序防火墙”,即便在最忙碌的司法环境中,法官也可通过层层机制被迫停下脚步,去思考“AI是否忽略或曲解了某些事实”和“AI是否刻意强化了某些原本存疑的结论”等问题。这种有意为之的制度化刹车与反思,为可持续的司法智慧应用提供了更加健康的路径。
(三)对未来研究的启示:亟待更系统化的实证检验
无疑,数字司法发展的最大隐忧来自“用技术来替代主体意义上的人的趋向”——但潘多拉的盒子已经被打开,由此,解决法官的主体性消解问题,仅有理论反思是不够的,必须回到人工智能技术优化和司法流程的科学设计,在一种技术化的思路中解决问题。因此,未来研究需以“问题导向”与“数据驱动”为核心,将“六步法”从理论推演推向实证检验,从技术演示升维为制度创新。唯有通过持续迭代与跨域协同,方能实现“效率不损公正、技术不夺人性”的数字法治愿景。未来研究可围绕以下几个方向展开深度探索,以验证其实际效能并推动技术与制度协同进化。
第一,裁判结果的量化评估与长期追踪。比如,实施该流程后,是否能显著提升社会对司法公正的信任度?是否可以减少可预见的误判或不当裁量?一则,比如,结合司法公信力的相关持续评估,综合评估社会对技术迭代之后司法公正的信任变化。二则,在未来可以在审判管理环节,通过统计误判率、二审改判率、再审启动率等指标,验证偏误缩减效果;利用自然语言处理技术(NLP)对判决书进行“逻辑一致性”与“价值平衡度”的自动化评分,对比“六步法”介入前后的文本质量差异。
第二,主客体评估的多维度深化。其中包括法官认知负荷与接受度和公众与当事人的感知研究。例如,记录法官在“逆向假设训练”环节的思考时长、对AI生成对立观点的依赖程度,以及其对程序价值的认同感。同时,可开发“法官—AI协同效能量表”,从“工具易用性”“决策支持度”“反思深度”等维度量化评估接受度。针对当事人,可通过庭审回访或焦点小组讨论,收集其对“人机协同论证精度”的主观感受,如是否感知到更多抗辩视角被纳入裁判逻辑。
第三,“效率—质量”平衡的精细化建模。一是,在时间成本动态分析方面,利用司法流程日志数据,精确测算认知协同决策模型各环节耗时(如“双向检索”平均用时、“反驳清单”撰写时长),并与传统裁判流程对比。进一步构建“效率—质量”函数模型,识别关键瓶颈(如逆向假设训练对复杂案件的边际时间成本),提出分级适配方案——对简易案件保留核心步骤(如检索与反驳),对疑难案件启用全流程深度审查。二是,在技术辅助增效路径,可以探索自动化工具开发,例如智能争议焦点对比工具,通过AI自动识别法官与机器生成的争点差异,并标注冲突原因;通过多模态决策看板可视化呈现对立论点、案例支持度与社会价值权重,辅助法官快速权衡。
第四,技术层面的交互优化。主要的思路是推动法律大模型从“单向输出”向“对抗性生成”升级。现有的大模型通常只能在用户指令下被动提供针对性答案,且易出现“幻觉”或“单向强化”现象。未来,可考虑在模型的架构中主动植入更多对立论点的自动生成机制,使法官无须额外指令,即可获取多视角、多维度的法律论证建议。例如,在训练阶段引入“对抗辩论框架”,要求模型同步生成正反论点并自我修正;在推理阶段嵌入“不确定性提示机制”(如标注AI结论的置信度与语料偏差风险),提醒法官审慎采纳。这种多元性输出也许能帮助法院在有限时间内掌握更多信息,从而进一步完善认知协同决策模型所需的对立面呈现环节,最终实现人机协作的良性互动。
原文刊载于《政治与法律》2025年第5期,感谢微信公众号“政治与法律编辑部”授权转载。