当前位置:首页 > 文献资源 > 研究报告
研究报告
邱遥堃|文生视频大模型Sora将如何影响智慧法院建设升级迭代
2024年05月27日 【作者】邱遥堃 预览:

【作者】邱遥堃

【内容提要】


文生视频大模型Sora将如何影响智慧法院建设升级迭代








邱遥堃 上海交通大学凯原法学院、中国法与社会研究院副教授









文生视频大模型对智慧法院建设而言,机遇与风险并存。一方面,它既可以在实质上生动还原案件的裁判事实,并维持客观真实与法律真实之间的平衡,又可以在形式上推动线上庭审的元宇宙化转型,并将裁判文书转译为裁判视频,进一步提升司法的可视化与智能化水平。另一方面,它可能加剧技术依赖、黑箱与损害公平的老问题,导致逃避司法责任、阻碍司法公开、忽视司法公平的负面效果,折损司法效率提升的正面收益。因此,应当在积极学习与应用文生视频大模型的同时防范潜在风险,坚决守住法官的主导地位,要求文生视频大模型具有适度的可解释性,并加强审查人工智能裁判结果。










 引言



文生视频大模型Sora的横空出世令人再次惊叹人工智能的发展速度与创造潜力。它能根据用户提供的文本、图像或视频,生成长达60秒、多镜头、包含复杂场景与角色的视频,并在此过程中理解人类语言与物理世界逻辑,不禁使人遐想虚实相生甚至以虚为实的元宇宙即在不远的将来,通用人工智能或许也不再天方夜谭。




对智慧法院建设而言,Sora意味着什么?它可能带来哪些新的机遇,可能制造何种新的风险?这是值得研究的重要问题。《最高人民法院关于规范和加强人工智能司法应用的意见》提出:“加快推进人工智能技术与审判执行、诉讼服务、司法管理和服务社会治理等工作的深度融合,规范司法人工智能技术应用,提升人工智能司法应用实效,促进审判体系和审判能力现代化,为全面建设社会主义现代化国家、全面推进中华民族伟大复兴提供有力司法服务。”因此,文生视频大模型的司法应用是大势所趋,研究其司法影响实有必要。


事实上,学者对人工智能于司法之正面影响及其限度、负面影响及其应对,皆展开了广泛探讨,认为其可能改变、甚至重塑司法制度,但存在过度依赖技术之隐忧;对最新的生成式人工智能于司法中的应用前景、风险与规制亦积极予以跟进,考察其生成示意证据、法律文书的能力对司法审判有何影响。如何最大限度地运用人工智能促进智慧法院建设,同时尽可能避免其潜在风险,是这一领域研究的核心问题。文生视频大模型作为生成式人工智能的进一步发展,自然亦可接续这一研究脉络。


本文拟对智慧法院建设中文生视频大模型的应用前景、潜在风险及其防范问题展开研讨,以期利用数字新技术实现智慧法院建设的持续升级。



 智慧法院建设中文生视频大模型的应用前景



当前智慧法院建设已利用人工智能的生成、匹配与审查功能实现了法律文书辅助生成、类案检索与推送、智能化审查管理等多种应用;文生视频大模型可进一步提升司法的可视化与智能化水平,从而提高司法效率、保障司法公正、强化司法公开,具体而言,包括以下内容。


(一)生动还原案件的裁判事实


首先,文生视频大模型强大的视频生成能力可以根据既有的案件文字、图像与视频证据,生成生动还原案件裁判事实的视频,成为示意证据,辅助法官查明真相。所谓示意证据(Demonstrative Evidence),是为解说原证据或案件情况而出示的可视材料,例如现场平面示意图、现场方位示意图、资金走向图、人物关系图、模拟动画等。3D打印、虚拟现实(VR)等数字技术的新发展给示意证据制作与展示带来了新的可能性。例如,在北京市第一中级人民法院审理的张某某故意杀人案中,控方借助“出庭示证可视化系统”以VR技术演示被告人持刀刺杀被害人的案发过程。北京王某、谷某某生产、销售假药抗诉案的控方意见亦赞同“制作多媒体展示的文件,举证直观性强、具有冲击力”。


文生视频大模型不仅能以嫌疑人口供、证人证言等既有的案件文字证据为基础,生成更富表现力、更容易理解的图片或视频示意证据,真实还原带有表情、动作与丰富情感的当事人角色,以及主题精确、背景细节复杂的案发场景,并以带有叙事性的多镜头画面予以呈现,还能以既有的案件图片、视频证据为基础,动画化图像内容或扩展现有视频,使存在缺失的原有证据被填补完整,使案件全貌得以复原。更重要的是,其视频生成能力的强大意味着:相比于主要或全部依赖于人工的当前实践(3D打印、VR展示仍以示意证据的人工制作为基础,仅增强展示效果),这一案件裁判事实的还原必将更为便利且生动,从而使更多案件,乃至所有案件,而非仅仅若干典型案例,能够在查明事实的基础上得以公正裁判。




其次,文生视频大模型对人类语言与物理世界逻辑的理解,特别是作为生成式人工智能的涌现能力,可能使其发现法官所忽视的案件细节与线索,从而比单纯的人类裁判更有机会接近案件的客观真实。即使不考虑案外因素对法官激励的可能扭曲,假定法官皆为兢兢业业想要办好案子的善意行动者,人类智能的有限性也可能成为法官认定事实的掣肘:不仅不可能实现如上帝视角般的无所不知,还可能因为自身语言文字、科学知识水平有限、甚至可能因为行为科学视角下“系统一”固有的某些认知惯习而无法有效认定案件事实。还有必要考虑,我国庞大的法官群体内部素质存在差异,以及法官受到案件负担影响而常常无法在每一个案件中充分考虑个案的全部情况,因此遗漏与疏忽在所难免。


相比之下,文生视频大模型不仅能够基于其语言文字理解与科学知识掌握的高水平而完整准确地还原案件证据所表现的案发事实,从而可能支持人类的有限理性,意外发现未曾设想的案件可能性,而且由于其工作效率与输出结果一致性更高,没有人类认知惯习,因此可能在事实认定方面达到更高的总正确率。更重要的是,作为生成式人工智能,文生视频大模型亦具有涌现能力。这意味着,它可能凭借自身智能,输出超越输入证据数据限定的结果,从而弥补案件事实中的缺失环节,或至少给法官完整还原案件全貌提供参考,从而可能无限接近对客观真实的全知。更不用说人工智能并不存在激励扭曲问题,不会被腐化,不会受到案外因素的不当影响,因而可以更坚定地从事人类对其布置的任务。


最后,文生视频大模型对所用证据数据的严格限定,能够使其避免法官想当然的事实认定,从而比单纯的人类裁判更能恪守基于证据的法律真实。人类智能的上述局限不仅可能导致法官认知有所不足,还可能导致法官认知过度:超越证据限制,“脑补”案件事实,作出错误裁判。人工智能一板一眼、因必有果的运行是对法官任意的最佳制约。其基本原理是学习过往无数类案而发现裁判规律,具体运作是结合当前案件全部证据而得出裁判结果,因此输入数据对其输出结果构成实质制约;通过参考文生视频大模型提供的生动示意证据,法官可以自我检讨事实认定过程是否存在任何无证据支持的臆断,从而发现自身可能存在的固有认知局限。


诚然,客观真实与法律真实之间的张力在文生视频大模型辅助的司法裁判中仍然存在,仅仅转变为涌现能力与数据限定之间的张力。人工智能的涌现不仅可能接近,也有可能偏离客观真实,体现为人工智能的想当然与“脑补”。但意外涌现的冲击在文生视频的效果增强下反而具有进一步刺激法官回溯并严审案件的既有证据的作用,正如看戏投入之时突然冒出的不合情理台词或情节会让人瞬间穿越、跳出戏外一样。涌现的“出戏”作用其实更能促使法官确保全部事实认定皆有坚实的证据支持。因此,无论其意外涌现生成的结果是对是错、有无证据支持,法官皆可从中获得必要参考,并在人工智能输出结果与自身思考结果之间的反复穿梭中,取得客观真实与法律真实之间的更佳平衡。


(二)继续优化智慧审理与裁判


一方面,文生视频大模型可以推动线上庭审的元宇宙化转型,使各方能以虚拟分身参与庭审,继续提高庭审效率,同时可以避免与案件无关的场外因素对庭审造成负面影响。当前的线上庭审已允许法官、当事人与其他庭审参与者不必处于同一空间,只要同时接入庭审系统、召开视频会议即可;在非庭审环节,各方甚至不必同时参与其中,只需根据结构化网络界面的引导,一步一步参与诉讼进程,不超过规定期限即可,亦即所谓“异步审理”模式。


但视频会议式线上庭审仍然存在两大技术问题:其一,参与各方的网络状况参差不齐,导致视频会议效果不佳,线上庭审受到负面影响。更一般而言之,这涉及仍未消除的数字鸿沟问题,如果当事人一方来自偏远地区或收入水平较低,这一问题必将更为严重,影响其本就不易的维权行动。其二,视频出镜要求各方对自身外形与所处环境进行整饬,而这仍然会构成诉讼成本,违背线上诉讼初衷。诚然,设置虚拟背景可以免除部分环境整饬成本,而且前述成本亦可促使各方更加认真对待庭审,增强庭审严肃性,但如果有其他更好的方式可以降本增效,那么此方面改善即为可取。


文生视频大模型提供了改善庭审的更佳方式。它能够生成虚拟庭审场景与虚拟庭审参与人,从而使视频会议式线上庭审升级为虚拟世界式元宇宙庭审,免除各方打开视频的负担,既能降低流量损耗、提升接入效果、消除数字鸿沟,又能消除为视频出镜而生的外形与环境整饬成本,进一步增强司法的可得性。更重要的是,以虚拟分身参与元宇宙庭审,能够有效避免肉眼可见的性别、种族、年龄、地域等歧视性因素不当影响法官对案件的深思熟虑,使其仅仅考虑与案件有关的因素与问题,真正实现“蒙眼正义”,而且对受害人而言,可以降低其出庭压力,有利于其维护权利。




另一方面,文生视频大模型可以将裁判文书转译为裁判视频,降低受众接收信息的难度,更有利于当事人接受判决结果,亦有利于司法判决在社会公共领域的广泛传播。当前的裁判文书自动生成已逐渐使法官从裁判文书撰写者向编辑者转型,大大减轻法官负担,使其能将更多时间精力投入实质性司法思维与疑难案件处理,甚至使人担忧法官是否已过度依赖人工智能、过度外包司法职责,乃至丧失对司法活动的控制。


但生成式人工智能在裁判文书写作领域事实上仍有巨大发展空间。且不论当前司法人工智能仅在以银行提供的格式化事实为基础的简单的网络金融借款纠纷文书写作中发挥作用,以及法官由于惰性、习得性无助、不信任技术等负面心理,或法院人财物力储备不足而远未充分应用现有司法人工智能等现实问题,生成式人工智能对篇幅巨大、充满术语、逻辑复杂、表达拗口的裁判文书写作之支持,反而可能强化当事人与社会公众理解进而接受裁判要旨之既存障碍。诚然,这实际上是法律职业主义所要求的思维、语言与风格,但过度的法律职业主义亦被批评为法律职业为维护垄断而滋生的隐形壁垒,不利于弥合法律人与普通人之间的认知鸿沟。


文生视频大模型提供了优化裁判文书的有力工具。它不仅可以进一步将法官编撰完成的裁判文书转译为裁判视频,既包含前述对案件裁判事实的生动还原,亦包含对法律问题视文并茂的裁判说理,甚至可浓缩大篇幅文书为中短长度视频,从而极大降低案件当事人与社会一般大众接收裁判信息、进而认可司法判决的难度,有利于司法社会效果的不断提升。在其更高水平的智能辅助下,更多复杂案件的裁判文书写作可以应用司法人工智能,法官对司法人工智能的使用可能也越来越低耗、悦纳与熟练。


综上,文生视频大模型应用于智慧法院建设,既可以在实质上生动还原案件的裁判事实,并维持客观真实与法律真实之间的平衡,又可以在形式上推动线上庭审的元宇宙化转型,并将裁判文书转译为裁判视频,进一步提升司法的可视化与智能化水平,于是司法效率得以提高、司法公正得以保障、司法公开得以强化。



智慧法院建设中文生视频大模型的潜在风险



对智慧法院建设而言,文生视频大模型不仅意味着可视化与智能化进一步增强的新机遇,其另一面则是加剧技术依赖、黑箱与损害公平的老问题,可能导致逃避司法责任、阻碍司法公开、忽视司法公平的负面效果,折损司法效率提升的正面收益,具体而言:


(一)技术依赖与司法责任的逃避


文生视频大模型的更高智能与更强能力可能使法官更加依赖技术,逃避司法责任,导致人工智能从辅助者反而转变为主导者。


首先,在事实认定方面,文生视频大模型对案件事实的生动还原可能致使法官过分相信其制作的示意证据,不再仔细审查更为重要的原始证据,甚至完全放任不管,服从人工智能的事实问题认定。但示意证据终究不是真正意义上的证据,不能成为裁判案件的事实基础。甚至由于文生视频大模型的技术水平尚待提高与涌现能力的不确定性,也许其无法接近客观真实或过分注重客观真实而忽视法律真实,但无论何者发生,皆为人工把关之缺失可能引发的严重问题。


其次,在案件审理方面,文生视频大模型对线上庭审的元宇宙化改造可能令法官重书证而轻口供,忘却对当事人与证人陈述进行必要的直接考察,不利于法官进行自由心证。事实上,视频会议式庭审虽然提高了司法效率,但已经引发对法官无法判断口头陈述真伪、可能有损司法公正的担忧,因此对刑事司法的数字化改造进展一直较为缓慢。元宇宙庭审进一步抹去了参与方特点,使所有人成为纯粹的证言供应机,在消除歧视性因素考量的同时,亦消除了可能有利于法官自由心证的因素考量,而这对司法的影响仍未可知。




最后,在法律推理方面,文生视频大模型对裁判文书的视频转码可能使法官在免除撰写责任以后,进一步免除编辑责任,不再对人工智能生成的裁判文书进行把关,服从其对法律问题的判断。实际上,其他人员对法官文书写作的替代已催生法官主导权丧失或至少法律文书写作风格变化之隐忧,在法官助理制度较为发达的国家已经发生。文生视频大模型的更高智能与更多模态转化可能导致法官对其更加依赖,特别是考虑到其案件负担,至少在大量简单案件中的更多人工智能应用是不难想见的。


既然事实问题与法律问题皆决于文生视频大模型,而且其结果亦不经过任何人工审查,那么一旦出错,责任亦不在任何具体的司法审判人员,而这显然违背应用文生视频大模型来提高司法可视化与智能化水平的初衷。诚然,未施审查的司法工作人员具有疏忽之责,仍然可以绳之以法,但事后追责无法挽回既成损失,冤假错案对司法公信力的损害木已成舟。


更重要的是,司法责任的逃避与人工智能的主导事实上意味着,文生视频大模型技术的提供者将可能对司法产生不当影响。不论是文生视频大模型还是其他人工智能,它们都远非独立自主进行思考的“机器人”,而在很大程度上取决于技术提供者的设定。法官如果放弃对人工智能输出结果进行审查,就在实质上将司法决定权让渡给了技术提供者。而技术提供者如果具有一己私利,其对公共权力的染指将会造成何种后果亦难以预料,这将构成巨大的国家安全与公共安全风险。


(二)技术黑箱对司法公开的阻碍


一方面,文生视频大模型对案件裁判事实的生动还原,使事实认定过程成为黑箱。案件证据是如何被转换为相关视频,既由于机器学习固有的复杂性而难以认识,也由于相关技术的知识产权、商业秘密保护需求而无法被披露,于是我们只能得到结果而无法了解过程,只知其然而不知其所以然。人工智能生成事实过程中的涌现现象进一步加剧了技术认知困难:如果技术黑箱仅仅根据某种规律将输入数据转变为输出结果,那么即使不了解黑箱内部技术细节,根据输入与输出亦有可能总结其运行规律,从而使一定程度上的技术认知成为可能。但涌现现象的存在,意味着假定的严格因果关系被打破,即使存在某些先在规律,人工智能亦有可能“突发奇想”地打破规律,从而使对技术黑箱的认识变得更不可能。


虽然法官对事实问题的自由心证在很大程度上也是一个黑箱,因为事实上我们对人脑的科学了解不如我们想象得那样多,神经科学、脑科学等研究进展仍然存在许多不足,但我们不仅通过一系列制度设计而最小化了人类决策错误的风险,而且我们即使不能对大脑运行的过程建立科学认知意义上的理解,也基本了解一般人类思维过程,能够产生感性常识意义上的理解,从而可以相信同类的判断。此即技术上高度复杂的机器智能所不能被认识并信任的根本原因所在,毕竟技术与人类终究有别。


另一方面,文生视频大模型对智慧审理与裁判的继续优化,使司法审判过程亦成为技术黑箱。在元宇宙庭审中为什么展示某些信息、屏蔽另一些信息。换言之,什么才是庭审需要考虑的相关信息,实际上存在巨大的商榷空间。但我们在技术的支配下选择性看到某些东西、不看某些东西,往往欠缺必要的严格审查与反思,最终这一庭审环境设置将对法官认知造成潜移默化又深刻重大的影响。在视频化裁判中如何将说理从一维升为三维、如何缩写梗概,亦对大众构成很高认识门槛,而在升维与压缩过程中保留了什么、隐去了什么,也会对没有时间或能力去阅读判决原文的任何人都形塑其司法认知。因此,文生视频大模型通过可视化增强而提高的司法公开水平被技术本身的复杂性所削减。




文生视频大模型是生成式人工智能的进一步发展,因此其参数规模将指数级增大,技术复杂性亦加倍增长,技术黑箱对司法公开的阻碍更为加剧。GPT-1的参数量为1. 17亿,GPT-2的参数量为15亿,GPT-3的参数量为惊人的1750亿,而GPT-4的参数量虽未披露,但多项预测显示将达100万亿,文生视频大模型的参数数量只会无以复加地增加,远高于现有技术水平。因此,应用文生视频大模型的司法过程,将由于严重的技术黑箱问题而面临司法公开受到阻碍的指责。


(三)技术效率对司法公平的忽视


一方面,文生视频大模型的训练原理仍然是基于大数据并结合人类反馈的机器学习,其司法应用可能忽视个案特点。文生视频大模型从属于生成式人工智能,亦采用类似完形填空的自监督学习进行训练。模型算法自己准备用来训练参数的数据,并根据所填单词与被移除单词的一致与否来不断调整参数,直至模型完美完成填空任务。在此过程中,人类可以通过提供提示样例或内容反馈的方式指导、完善模型。其相比于此前生成式人工智能的更进一步在于:为实现生成内容的不同模态转化,预先将文本单词与视觉子块映射到同构性低维空间,并在此空间运用前述学习训练方法,发现文本单词、空间子块与时间子块之间的关联关系。因此,其训练原理类似于总结类案经验、进而应用于新的个案,因此分享类案裁判的同样问题是,如果个案存在新的特殊情况,基于既往经验的大模型能否加以考虑,仍未可知。涌现能力由于其不确定性,也无法保证在个案中得出准确的事实结论。


另一方面,文生视频大模型的强大智能可能主导法官思维,得出未经审查的错误结果。上文已述,技术能力越强大,法官对其依赖与对自身责任的逃避的可能性越大,以至于任由文生视频大模型决定庭审证据呈现、裁判事实认定、法律推理结论。于是,即使从内部视角观之,其类案规律总结与个案具体应用并无问题,也可能产生从外部视角观之的事实或法律错误,特别是当法律规定跟不上社会现实发展、与人们心中公平正义观念相违背的时候,正如带有社会性或经济性歧视因素的数据训练得到的算法只会继续输出歧视结果、强化歧视效应。但由于法官的技术依赖与责任逃避,这一错误的技术输出结果将无人审查,最终实质性影响当事人的权利义务与社会的稳定秩序,甚至使技术提供者之私利所欲的法律秩序与社会秩序成为现实。并且由于技术的高效性,这一负面影响的范围将与正面效应一样非常广泛,造成海量案件的错判。


由于文生视频大模型的发展水平有限,特别是在疑难案件中的处理水平始终受到怀疑,因此放任其主导审判,盲目提升司法效率,必然带来司法公平受到忽视的负面后果。从短期来看,文生视频大模型的生成能力远不稳定,仍然可能产生违背现实世界逻辑的许多结果;从长期来看,文生视频大模型的内容生成也许仍然与其他技术一样,适合于规则明确、非黑即白的任务指令,于是在标准模糊、法律空白的疑难案件中是否能够发挥作用,令人怀疑。因此,应用文生视频大模型的司法过程,将由于过分重视效率而受到轻视公平的指责。



文生视频大模型Sora将如何影响智慧法院建设升级迭代



既然文生视频大模型对智慧法院建设而言,机遇与风险并存,那么想方设法防范风险,从而积极推动大模型的司法应用,即是必由之路。就此而言,应当守住法官主导地位,适度解释文生视频大模型,加强审查人工智能裁判结果。但在进一步具体论述之前,仍应强调:当前司法人工智能的发展与应用水平事实上较为低下,仅能生成以银行提供的格式化事实为基础的简单的网络金融借款纠纷文书,并且由于许多法官(尤其是年龄较大者)的惰性、习得性无助、不信任技术等主观局限性、以及不少法院(尤其是偏远地区的)之人财物力储备不足的客观局限性,即使是低水平的司法人工智能,也存在着巨大的推广应用空间。因此,虽然审慎与防范非常重要,但学习与应用之重要性亦不遑多让。


(一)法官主导,人工智能辅助


对技术依赖问题,一方面,应当重申文生视频大模型在司法审判过程中的辅助地位,强调由法官主导审判并对结果负责。无论文生视频大模型的智能水平如何提高,都不能取代法官在事实认定与法律推理中的主导作用,其输出结果只能作为审判或审判监督管理的参考。在事实认定方面,法官应当仅以文生视频大模型生成的示意证据作为理解原始证据的辅助,并根据原始证据仔细审查示意证据,避免对客观真实追求过度或不足,从而准确认定案件裁判事实。在案件庭审方面,法官应当书证与口供并重,并在必要时要求当事人或证人打开视频进行陈述,对其发言进行直接考察,从而形成自由心证。在法律推理方面,法官应当坚守对人工智能裁判结果进行编辑的责任底线,不能放任其升维与压缩,对当事人与社会公众产生重大负面影响。主导审判自然意味着承担责任,而不能认为责任在人工智能或仅仅承担疏忽之责,正如禁止他人过问插手案件的另一面亦为司法责任制一样,让审理者裁判、由裁判者负责的基本要求在司法人工智能中仍然牢不可破。因此,应当确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。




另一方面,应当对所用文生视频大模型进行严格审查,提高技术安全与数据安全水平,避免技术提供者对司法产生不当影响。文生视频大模型的提供者应当经过仔细筛选,不论其为法院内部技术工作人员,还是法院外部技术供应商,皆应当具备高水平技术能力。其提供的大模型也需要经过审查与备案,确保其符合安全合法、公平公正、辅助审判、透明可信、公序良俗原则,并特别注意守住安全底线,不得损害国家安全,不得侵犯合法权益,确保国家秘密、网络安全、数据安全和个人信息不受侵害,保护个人隐私。同样值得强调的是,所用模型不得留有后门,以免技术提供者仍然对其具有控制能力,并借此不当影响司法裁判,同时获取重要的信息与数据,破坏前述法官对司法的主导权。由于人工智能的司法应用涉及重大的公共利益,因此可以对抗技术提供者的知识产权与商业秘密保护诉求,要求更高程度的信息披露与技术解释。


(二)适度解释,提升司法公开


对技术黑箱问题,首先,应当对文生视频大模型进行适度解释。在不损害公共利益与知识产权的前提下,以一般公众可以理解的方式适当披露文生视频大模型的技术原理,使之明白大模型是如何基于文字生成视频。在司法中应用人工智能即有利于促进公共利益实现,因此,知识产权与商业秘密保护需求在此场景下应当适当受到抑制,仅需考虑更广范围、面向公众(而非较窄范围、仅面向法院内部技术安全审查者)的模型披露是否可能造成算法规避的不利后果,导致受司法人工智能影响者利用其对技术原理的知悉而规避技术、以合法形式掩盖非法目的,从而谋取不正当利益。就促进信息披露与技术解释而言,文生视频大模型本身亦可服务于此目的,通过精准又易懂的视频解释自身原理,进一步降低公众的理解门槛。


其次,应当加强与应用文生视频大模型的案件当事人的沟通。在具体案件中,法官可以更为直接的面对面方式对当事人解释文生视频大模型是如何还原案件事实、生成庭审场景,从而使之更容易在审理程序与裁判结果中接受这一人工智能。由于信任有时并非基于更充分的信息披露,而是基于长期交易形成的稳定预期,因此将用户更深地纳入生成式人工智能的开发、应用与优化的过程,在亲身参与中增强用户对算法的理解与信任,消除对技术黑箱的恐惧,即为增强技术信任的有效方案。当事人在案件审理中的亲历性,使其完美符合人工智能参与者的必要条件,结合前一条对大模型的一般解释,其相关行为与材料是如何导致相应输出结果,亦更容易被理解,进而达到比普通人更强、对司法意义也更重大的技术信任。


最后,如果解释与沟通仍不足以打消当事人与公众对文生视频大模型之司法应用的怀疑,那么限定其应用范围乃至推迟其应用,亦为可取的解决方案。《中华人民共和国个人信息保护法》第24条第2、3款规定:“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”事实上,不仅是使用个人信息的自动化决策,各类用户皆有权选择是否利用司法人工智能提供的辅助,有权随时退出与人工智能产品和服务的交互。如果他们不能理解或不能信任,那么拒绝与退出就是对其权益的最佳保障。


(三)人工审查,统一效率公平


对损害公平问题,首先,应当加强对应用文生视频大模型之案件的人工审查,为实现效率与公平之统一,应当继续繁简分流并对疑难案件的人工智能应用着重审查。人工主导与把关始终是应用司法人工智能的黄金原则,既对应前述法官对司法的主导与控制权,亦能够确保人工智能输出结果的正确或至少有人负责。如果司法效率的过分提高存在损害公平的可能,那么人工审查即是延缓效率、促进公平的最佳办法。但为避免过分损害司法效率、降低人工智能应用收益,繁简分流则是有效解决办法。对简案实施宽松审查,更多信任人工智能处理结果;对繁案实施严格审查,更多预设对人工智能裁判的不信任。而繁简分流的工作本身,同样属于利用人工智能加强辅助司法事务性工作的一部分,有利于提升司法效率。




其次,完善案件裁判偏离度预警、终本案件核查、不规范司法行为自动巡查、廉洁司法风险防控等智能化应用,以技术制约技术。人工智能司法应用的重要组成部分即是加强司法的智能化管理,提升司法管理质效,保障廉洁司法,因此以审查式人工智能制约生成式人工智能,当然也是司法人工智能应用的题中之义,并且有利于部分弥补人工审查对司法效率的损失。在前一条的人工审查之前,可以利用智能化司法审查管理应用,预先发现可能存在的错判误判,或可能导致错判误判的不规范司法行为或司法腐败,从而为人工审查指明重点、减轻负担。甚至这一制约生成式人工智能的审查式人工智能技术还能更为先在地作用于前者的训练环节,使其学习过程得到更多指引与反馈,发挥人类监督的类似作用。


最后,在前述自上而下审查以外,还要重视个案当事人感受,聆听其对文生视频大模型应用的看法,从而实现情理法的统一。不论技术审查还是人工审查,皆属于自上而下的司法内部自查,可能因为视角单一、过分职业主义而不识错误真面目,错失发现问题的诸多机会,因此需要自下而上的外部视角进行补充。此即当事人感受之反馈,能够发挥类似用户评论、信用制度的功能,使司法工作人员了解其运用人工智能的真实工作效果,起到补充内部审查,促进模型改进的作用。更重要的是,既然文生视频大模型之司法应用的最终目标是让人民群众在每一个司法案件中感受到公平正义,实现效率与公平之统一,那么其应用影响如何,自然不能缺少当事人的评价与反馈,从而真正实现服判息诉。


综上所述,我国智慧法院建设应当抓住文生视频大模型提供的新机遇,提升司法的可视化与智能化水平,同时要防范旧风险的加剧,避免技术依赖、黑箱与损害公平的老问题,在积极拥抱数字技术中,让人民群众在每一个司法案件中感受到公平正义。





原文刊载于《中国应用法学》2024年第2期,感谢微信公众号“中国应用法学”授权转载!