当前位置:首页 > 文献资源 > 论文著作 > 理论推演
文献资源
高童非|数字时代司法责任伦理之守正
2022年08月29日 【作者】高童非 预览:

【作者】高童非

【内容提要】

*高童非

中国人民大学法学院讲师中国人民大学未来法治研究院研究员


文章来源《法制与社会发展》2022年第1期。

 

内容摘要 在数字化浪潮下,司法活动呈现出“去责任化”的趋势,具体表现为责任感的缺失和责任推诿的加剧,因而亟待法学界对司法责任伦理予以革新。数字技术导致司法责任消解的机理是复杂和多元的,主要源于其兼具权威性与非权威性、确定性与不确定性、机械性与能动性等多重面孔。当前我国司法工作中的数字技术主要被应用于证据指引系统、风险评估工具、在线诉讼平台的开发等事项上,这些领域也是司法责任伦理冲突最为激烈的场域。数字时代应当坚守人本主义司法责任伦理,准确界定机器、技术人员、系统部署者与司法官的责任框架,在拥抱技术的同时树立科学的责任观,借助数字技术建立和完善符合时代特征的司法责任体系。


关键词 司法责任; 人工智能; 风险评估工具; 在线诉讼; 算法问责; 技术伦理



一、问题的提出

 

伴随着云计算、大数据、人工智能等电子信息技术的推广和普及,数字文明正在兴起数字时代已然来临。数字时代的背后是一个社会整体上的数字化运动包括司法活动在内的,法律活动也必须紧跟社会的数字化进程,如若不然,法律调整人的行为维系社会秩序的基本功能必将旁落。18世纪意大利法学家维柯 (Giovanni Battista Vico) 曾经提出,历史上先后存在过神的时代、英雄的时代和凡人的时代, 与其对应地产生了三类法律——神的法律英雄的法律和人性的法律。当今的数字时代也在催生与之相适应的法律,呼唤新的法律观作、为其构建基础。法律如何回应新技术带来的冲击和挑战,对这一问题的回答是数字时代赋予法学学者的历史使命。

 

数字时代的司法活动涌现出诸多新元素,在互联网等信息技术的助力下,司法工作正在悄然发生转变,人工智能辅助系统、数字化风险评估系统、互联网在线诉讼系统、司法人员业绩考评系统等数字化科技产品已经在司法实践中具备了一定的应用基础。在这些技术的介入和干预下,司法官的决策方式有了显著变化,其承担司法责任的过程和结果也随之发生了改变。应用于司法活动的数字技术将导致一种不容忽视的异化问题,即在司法系统内形成“组织化的不负责任”倾向。这种现象及其引发的问题尚未被法学界识别,更没能引起实务部门的重视。正如有学者所指出的,在智能社会中的诸多风险和挑战中,最突出最严峻的就是规制失灵和秩序失调。基于此,数字时代也在召唤与之相配适的司法责任伦理。

 

现代伦理学就是围绕“责任”构建起来的,康德曾明确宣称自己的道德理论是 “建立在责任概念之上的”。司法职业伦理的目的是把道德戒律强加给法官,申言之,法官职业的伦理责任需要解决的是“司法道德责任” 问题。所谓“责任”,不仅包含由法律规范调整的外部责任,还包括由伦理规范调整的内在责任。出于维护司法权威的考虑,通过设置严密的法律规范对司法官的活动进行外部约束和追责,通常不被认为是可取之道,对司法行为的规制应当更多地依靠司法责任伦理的约束。

 

随着应用伦理学在德语国家的兴起,责任伦理已成为一种特指的名词,学界对责任伦理的研究存在两种进路,除了从理论伦理学角度研究道德责任外,从应用伦理学角度展开的研究愈发受到重视,后者尤其关注在科技飞速发展的过程中人类在面临科技带来的巨大挑战时所应具备的基本原则的构建问题,其反映了科技时代应有的一种精神需求与精神气质。在我国法学界,科技引发的伦理危机已经引起了学者们的关注,但关于司法责任的应用伦理研究却与之不相匹配。司法责任伦理具有历时性,司法的数字化进程必然带来责任伦理的转型。归纳数字时代司法行为的新特征并在此基础上重新确立责任分配的原则势在必行。

 

二、数字时代司法责任伦理的风险

 

数字时代的法律及伦理主要调整的是人和其制造的工具间的关系,这是一种人与物之间的关系。司法的数字化是借助计算机实现的,人机关系成为重构司法责任伦理的核心要素。从法学角度出发,人类社会的组织原理乃是问责机制。从时间要素上看,责任具有两个向度,即 “过去责任” 和 “预期责任”。所谓 “过去责任”,就是向后看过去的行为和事件,考量个人或团体是否具有有责性,是否负有责任以及是否应当被课责等;而所谓 “预期责任”,就是面向未来的责任,例如主体所担负的义务、职责、任务等。司法数字化带来的伦理挑战不仅削弱了司法决策者在评估未来自身责任时感受到的制度性约束力,还使现有制度中的对司法人员的问责机制难以为继。机器的运用使裁判者与当事人的关系疏离和物化,削弱了司法官人道主义的责任感。并且,计算机的介入引发了司法人员的卸责行为,即通过计算机向其他主体或机器转嫁压力、风险和责任。

 

(一) 数字时代司法的 “去责任化” 趋势

 

本轮司法体制改革将司法责任制作为牵引全局的 “牛鼻子”,赋予其统领其他各项司法改革的地位。但与政治家的承诺和民众的呼声不同的是,法律人却建构出一种 “去责任化” 的司法责任制。责任的追究就是对责任主体施加不利后果,而 “趋利避害” 本是人之常情,正所谓 “夫凡人之情,见利莫能勿就,见害莫能勿避”。司法主体消解责任的倾向并非数字时代的产物,但是数字技术的引入加剧了司法官 “不负责” 的倾向,且加深了卸责行为的组织化的程度。这主要体现在两个方面:其一,计算机消解了法官道德上的责任感;其二,计算机成为法官理想的卸责对象。

 

数字时代司法责任消解的趋势不仅是司法官主动采取司法策略的结果,还是诸多非意志因素综合作用的产物,从而形成一种 “去责任化” 效应。这种责任的消解通常并非裁判者有意为之,而是由计算机程序和系统对使用者潜移默化的影响所致。由于技术的发展与应用人与机器间的主客体关系呈现出颠倒化的趋势。司法文明进步的表现之一就是赋予当事人,程序主体的地位,让其参与关涉自身利益事项的决定过程,并且获得改善自身处境的机会和手段。而各种机器的运用造成审判时空同一性被突破、当事人数据化等状况,使裁判者与被裁判者之间的关系被物化,司法官和当事人之间出现疏离感。在 “技术利维坦” 中,人只是被结合到机械体系中的一个机械部分。同时,机器为司法者决策提供辅助,甚至成为可以承担责任的主体,分享着司法官的权力和责任。这无形地弱化了司法人员承担责任的主体地位,在一定程度上消解了司法裁判者的责任担当。

 

除此之外,司法官会主动寻求责任的最小化。数字时代是一个高风险的时代,风险社会催生出一种 “有组织的不负责” 趋势。在全球范围内,公职人员愈发奉行规避责任的行动逻辑,在面临负面事件时出现采取自保策略的倾向。研究表明,我国基层政府官员在面临邀功和避责的抉择时,其更多地选择后者,这导致了政府创新性的不足。有学者提出,我国正在成为“高风险社会”,决策风险的增大使有关部门倾向于不作为,而责任承包制则进一步加强了逃避责任、转嫁责任的动机。当司法官在司法决策中具有上述倾向时,他们会通过诉诸权威、规则依赖、对外转移、集体承担等途径消解责任。随着人工智能等技术被纳入司法领域,机器成为司法人员转移和分担责任的对象,这为司法卸责提供了便利。

 

(二)责任感缺失的伦理隐忧

 

司法责任的道德要求在实质内容层面体现为司法官应当存有责任感。责任感又被称为责任情感,指的是主体强烈希望履行自身应尽责任的情感态度。在司法活动中,司法人员应当勇于担当,积极主动地承担司法责任。在办理案件过程中,司法官责任感的强弱取决于其对当事人的道德情感和人文关怀。司法者的责任感表现为对受审之人应当怀有同情心和怜悯之情。中国古代儒家倡导的是以情感为基础的政治,在司法领域注重情感的表达和沟通。《尚书》有言, “哀矜折狱,明启刑书占, 咸庶中正”。曾子在《论语》 中也提到 “如得其情则哀矜而勿喜”。“哀矜折狱”这种对受审者的同情、怜悯的恻隐之心成为中国传统司法伦理最重要的内容,深刻地影响了我国古代的司法实践。

 

从历史维度看,司法活动大体上经历了从“广场化” 到 “剧场化” 的变迁过程,从露天开放的广场集会转入仅有特定人员在场的规限空间。在以剧场为象征的建筑空间内,相当于舞台的审判活动区与旁听席被严格隔断,“舞台”被精心地布景,呈现出公正和威严等意象。司法活动是一种表演,既定的审判规程相当于脚本。法官和诉讼参与人是以表演者的身份出场的,这些主体运用服饰道具来区分角色,通过神情姿态、言行举止来展现各自的“技艺”。这些符号无一例外地冲击着旁听人员的感官,向观众传递出道德教化、情感交流等多重讯息。然而,互联网线上审判技术的运用冲破了司法 “剧场” 的时空界限,通过网络系统和平台,庭审活动可以在不同的空间和时间展开。剧场和符号的式微使得道德情感失去了发挥功用的场所和媒介,阻断了审判者和受审者之间的生动交流。在法官面前的不再是活生生的人,而是各种图像、信号,甚至仅剩下文字的表达。

 

英国大律师安德鲁·朗顿 (Andrew Langdon)针对线上审判提出了一项基于情感和心理的诉求。 他提出,物理存在的人性是正义实现的一个重要的组成部分。受审者应当现场出庭,置身于证人、陪审团、法官、律师和公众面前,因为正义长着一副真人的面孔,而不是一张屏幕上的面孔。有别于当事人与法官聚集在同一场所内面对面地处理纠纷,远程或异步的审判在一定程度上不利于法官对当事人个人形成直观的印象,对其陈述的故事难以感同身受。毕竟法官可能看不到当事人唾沫横飞地宣泄自己的愤怒,抑或声泪俱下地痛陈自己的冤屈。相较而言,在电子诉讼中,法官对当事人更加冷漠,对案情也更为麻木。在此情形中,审判者 “哀矜折狱” 的道德情感也被空间和时间所阻断。由于网络空间难以唤醒法官的责任意识,因而在此类案件中,法官的责任感也将大为减弱。虽然网络可以使人与人之间的连接更为紧密,也可以使更多的人享受到司法服务,实现 “触达司法” 的价值追求,但在法官与当事人在物理空间上更为接近时,内心情感却日渐疏离,二者的实质关系的间隙也在加大。当前,我国正在大力推进线上诉讼系统,部分互联网法院还推出了异步审理模式,对这些新技术的伦理反思迫在眉睫。

 

(三)责任推诿加剧的伦理挑战

 

责任伦理的基石在于确立 “责无旁贷” 的道德要求,即确定的主体负有不可推卸的责任,这是司法道德责任在形式要件上的应然追求。然而,责任伦理中的这一根本性原则却面临被淡化甚至消解的风险。在数字时代的司法活动中,智能算法扮演的角色愈发重要。在自动化系统或半自动化系统的助力下,机器已经在部分领域辅助甚至替代司法官作出决策。司法官在运用计算机系统时,不可避免地存在借助机器减轻自身责任的心理动机。

 

司法责任的分摊、转移现象在一定限度内是合理的。出于工作职责的需要,司法官必然置身于矛盾纠纷的漩涡中心。因此,司法系统应为司法官的避责和卸责容留制度空间。若卸责行为超过了必要限度,不仅会引发责任伦理的危机,还将严重损害司法公正。若在司法系统内形成保守和不担当的不良风气,这将对整个国家的司法事务造成体系性侵蚀。

 

尽管当前我国的司法智能化水平还处于起步阶段,科技公司的产品还不能为司法人员减轻太多负担,但我国司法机关正在以极大的热忱拥抱各类智慧司法项目。由于新兴技术发展势头迅猛,有理由相信,在不远的将来,计算机系统将在更大的范围和程度上承揽司法官的职责。实际上,自动化决策系统已经在国内外的司法系统中有了一定的应用基础,即便在对待新技术相当谨慎的刑事司法系统中,也进行了数量可观的积极尝试,主要集中于法官量刑和检察官审查逮捕时对犯罪嫌疑人、被告人进行风险评估的事项上。

 

科学的自动化系统为司法程序带来了透明、精细、合理、高效和中立的决策,挤压偏见、错误、不专业和腐败寻租存在的空间,整个司法系统都将从中受益。但是,选择将计算机技术作为 “替罪羊” 的做法将给包括司法机关在内的公共部门带来影响,导致极端形式的规则迷恋、程序主义、僵化思维和责任推卸的产生,最终通过消除自由裁量权降低公共部门适应环境变化、权衡细微的价值区别的能力。鉴于人们希望避免制裁的自然倾向,在发生错误的时候,他们会责怪技术或系统而不是他们自己,这是合乎逻辑的。但这种将责任从人员转移至技术的变化还可能为公共部门的某种政治目的提供正当化的借口,这种架空既有问责机制的问题在诸多公共管理的实例中已经显现。如果问责的对象从政府和司法机关的官员转变为软件工程师,后者却没有对此作出回应的责任,则将导致问责制的缺位。基于此,公共部门在一些情形下有意让自动化系统充当自身逃避和转移指责的工具。指责技术的做法包含了多元的心理诉求,除了可以推卸责任外,它可以错误地鼓励或引导人们将某种决策能力归因于计算机,还可以将情绪宣泄的对象定格在技术本身,并且通过 “拒绝技术” 等方式化解矛盾。例如, “这是计算机的错” 之类的解释阻碍了旨在保持清晰问责线的问责文化,而这种问责文化是值得追求的,因为发展责任感是一种值得鼓励的美德,并且其因对社会福利的影响而应当受到重视。

 

当前,在司法数字化的话语中充斥着大量的隐喻,各种系统被赋予拟人化的意涵。隐喻作为一种思维方式和认知手段,可以作为媒介实现从相对熟悉的具体概念向相对未知的抽象概念的映射,以此展开对未知领域的探索。然而,这种隐喻同样极具误导性。关于人工智能主体是否具有独立人格的讨论是存在争议的学界对于机器是否可以成为承担责任的主体莫衷一是。但无论其是否具有独立承担责任的意识和能力,它都可以成为法官理想的卸责对象,因为法官减轻自身责任并不需要找到另一个独立的责任主体。


三、数字时代司法“去责任化”效应的机理

 

数字技术之所以可以吸收司法官的责任,在司法领域形成“去责任化”效应,原因在于其具有独特的内在特质。数字技术有着一张普罗透斯似的脸,让人难以琢磨,而其“去责任化"的机理同样是其中各种因素交织在一起的产物。概言之,数字技术之所以可以实现责任的弱化,原因在于技术应用的权威性与非权威性并存、确定性与不确定性共生,以及机械性与能动性同在三个要素特征。本文在剖析现象和问题后,将围绕以上三个方面深度分析数字技术消解司法官责任感,以及司法官将责任转移给算法和技术的心理根源,探寻司法责任“人机互动”的机理。

 

(一)权威性与非权威性并存

 

虽然一直以来权威性都是司法活动的主要特征,但司法的权威性不是与生俱来的。回顾司法的历史可以发现,诉讼模式的演进就是国家一次次重建司法权威体系的过程。无论何时何地,案件和纠纷总是一块“烫手的山芋”,而裁判者必须对纠纷作出决断,不得拒绝裁判,因而这一群体总是处于责任和压力的中心。错误裁判带来的政治、法律、宗教等多重责任犹如悬在法官头顶的达摩克利斯之剑,致使恐惧、焦虑、犹疑常伴其身,这在古今中外并无例外。在神判时代,裁决的结果通过水、火等自然媒介昭显于世,执掌法度之人不需要为裁判结果埋单,自然也不存在被追责的风险。神判被禁止后,陪审团作为替代品成为了新型的权威并延续至今。而在近代民主理念深入人心后,由代表民众 “公意” 的陪审团作出的裁决具有近乎无可指摘的权威性。

 

在数字时代,司法实践样态的深刻变革势必带来司法权威的变迁,人工智能、 算法逐渐形成一种新型的 “技术权威”。正如有学者所言,如果算法决策工具被视作权威,人们很难拒绝诉诸权威的思维方式。在社会的数字化进程中,大量证据表明人们容易过度依赖智能决策系统等机器的辅助具言之,包括司法官在内的公众产生了一种 “输出迷恋”,即计算机程序输出的结果不能被质疑,并被赋予了最终的权威。这种对定量决策标准日益依赖的现象背后的心理是用户相信计算机会以客观的方式得出正确的结论。美国一项针对阿勒格尼县预测虐待和忽视儿童的风险评估工具 (AFST) 运作情况的伦理审查表明,收案筛选员往往十分信服该系统的评分,以至于他们会质疑自己的判断。而且他们的主管也强调,如果实际的调研和评估系统显示的分数不匹配,那通常是人们遗漏了某些因素。他要求员工复盘整个案件,找到问题所在并改变原先个人的评估结果,这意味着 “人机冲突” 时人应当服从评估系统的判断。正如有学者指出的,大多数人都是 “认知的吝啬者”,更愿意选择只需付出最小认知努力的方法,甚至跟随直觉而放弃对每个决策因素进行系统分析,而自动化的决策辅助工具可以充当这些启发式决策方法,并且可以替代更能保持警惕的决策系统。受到自动化决策系统的影响,司法人员为了减少思考量,极易降低职业警惕和批判思维,为了与计算机保持一致而改变自己本来的正确想法。而如此行事的更大收益在于作为自然人的司法官可以将错误归咎于技术,实现责任转移。

 

随着计算机的使用越来越广泛,越来越 “友好”,它们同时变得越来越不为人们所知即使对专业人士来说亦是如此。数字技术的复杂程度早已超乎常人的理解,绝大多数的司法官并不了解技术,甚至连开发系统的技术人员都无法掌握机器得出结论的内在逻辑。在数字化浪潮的推动下,司法系统希望紧跟时代步伐以推动革新,就必须赋予技术权威,要求法官相信专家和系统。

 

正因为司法人员不了解技术,他们可以毫不费力地将错误的原因引向机器,在追责时怪罪于技术。数字技术引领下的司法权威与民众陪审等权威相比有很大区别,算法的权威只是一种相对权威。由于运用算法系统的司法决策者及公众对算法知之甚少,且算法应用是否偏离客观公正的司法目标容易被 “黑箱” 遮蔽,因此,智能系统运用不当可能引发公共部门的信任危机,削弱司法权威。不信任法官的人们自然也不会有太多理由对技术专家报以更多的信任。数字技术成为易受指责的 “替罪羊”,充分说明了技术在出现问题时极易被撕下神秘面纱,此时技术呈现出了 “非权威性”的一面。综上,数字技术的 “去责任化” 效应是由技术本身的权威性以及出错后极易 “跌下神坛” 沦为 “替罪羊” 的非权威性共同形成的。

 

(二)确定性与不确定性共生

 

引入计算机算法参与决策可能导致司法决定的不确定性,这是系统输出结果的不确定性造成的。在 AlphaGo 与李世石、柯洁等人的 “世纪对决” 中,机器下出完全出乎顶尖人类棋手意料的着就已不胜枚举。输出结果的不确定性与人对技术的盲从和依赖叠加,就会造成司法裁决的不确定性,而这种不确定性可以成为司法官逃避责任的借口。惠特曼已指出,随机选择是审判者缓解心理焦虑和排解道德责任的主要途径。将令人难以接受的结果归咎于“运气” 不失为一种有效的道德慰藉策略。例如,就 1884 年发生于英国小型货轮 “ 木樨草号” 上的 “抽签杀人” 事件而言,至少在当时的危急情景中,这种随机的结果确实可以破解 “杀人” 的伦理困境,将非法行为正当化使结果更容易让人接受。

 

在数字时代,人工智能辅助下的司法决策将不可避免地涉及随机性问题。对于许多计算机系统的设计者而言,算法中的随机性是必不可少的,并且在解决一些问题时,随机性算法比确定性算法更为有效,譬如它有助于防止系统博弈等策略行为隐藏秘密信息,也可以在不可预知的环境中更灵活地执行任务。在机器学习的过程中,含有随机性的设定经常被用到,而研究表明,随机猜测和调整各类结果输出的概率往往会比人为决策效果更佳。这些系统中植入的随机因素导致了问责的困难, 因为这种自动化的决策过程难以被量化解释,且技术人员无法对结果进行重复验证。

 

随机产生的裁判结果当然是不确定的,但不确定的结果并不都是随机产生的,除此之外还包含了得出结果过程的不可知性。在司法制度中,虽不存在随机的程序,但决策结果的不确定性或者一定程度上的不可预测性却不鲜见。依陪审团裁决等裁判方式得出的结果就具有高度的不确定性。正因如此,经由这些装置得出的判决结果不需要出具理由,也就无人可以为之负责。即便不考虑自动化决策系统中的随机性,设计原理和运行过程高深难懂且不公开的算法也使司法系统自身无法对输出结果进行技术性审查。司法官只了解输入的信息和输出的结果,至于算法的运行过程则处于不可知的 “黑箱” 之中,使用者并不真正知悉这个结果是如何得出的,也不知悉下一次是否还会出现相同的结果。即便对司法官公开所有算法的内容,他们也无法进行审核,当然也无从对其负责。既然司法者无需对自动化决策的结果进行解释,而这种结果又拥有技术专家的背书,他们自然更倾向于遵从机器的选择,这样司法官可以在很大程度上减轻甚至免除该部分的说理义务与论证负担。在司法追责压力日益增大诉讼效率不断被强调的今天,司法官借助和依赖机器的判断就意味着自身责任和压力的极大、减轻。

 

算法的不确定性指的是其运行过程的高度专业和隐秘性以及结果不受主观控制的特征但由于算法通常是事先确定的,因此与人的自由裁量相比,系统对案件的处理通常更为稳定,在 “弱人工智能” 的应用上或者说早期产品的开发上更是如此。这也是为何我国正在推进智能化类案推送系统,限缩法官个人裁量权,确保 “同案同判” 的缘由。有学者指出,“或许我们法律制度中百分之九十的非正义都来自裁量,而只有百分之十来自规则”。因此,计算机系统带来的确定性在很大程度上可以促进司法公正。

 

有研究指出,算法不仅可以完成人们对结果已经达成共识的任务,还可以解决目标分歧下的决策问题,任务的不确定性甚至构成了应当交由机器解决的初步理由。有学者认为,比如法官的量刑缺乏统一的标准,在量刑时需要考虑报应、威慑、预防、修复社会关系等多元价值的实现,而算法的介入可以增加结果的确定性,提高当事人预测案件结果的能力。从某种程度上说,自动化决策系统作出的决策大多是建立在相似性的逻辑关系上,是缺乏个性化的。在机器的辅助下,法官可以像流水线那样处理案件,无需过多地动用主观判断,不需要细致地权衡各种复杂的决策因素,自然可以在很大程度上卸去身上的责任重担。

 

(三)机械性与能动性同在

 

数字技术的运用形成司法 “ 去责任化” 趋势的原因还在于技术将造成司法的机械性一方面,机器是冰冷的,目前最先进的技术也无法在计算机中真正模拟人类的情感,更遑论。将情感注入 “阿尔法法官” 的裁判之中。另一方面,线上审判的推广使得法官与当事人之间隔着一层机器屏幕,这导致了诉讼中道德情感的隐退。让机器代替人行动是执法或司法者推脱责任的常用方式。用于执行死刑的断头机诞生于欧洲的中世纪晚期,这一装置的出现极大减轻了刽子手在执行死刑时的道德责任。断头机不仅是一个方便执行的机器,更是一个卸责装置。由机器执行杀人任务,此时机器就是权威的化身,是公正和不可抗拒的。现代社会普遍运用更加复杂的机器装置执行死刑。例如,用注射死刑代替枪决,除了出于减轻犯罪者痛苦等人道主义考虑外,也包含了减轻执法者道德焦虑的考量。现如今,人工智能已经开始代替人承担执行死刑的工作以及随之而来的责任。2020 年 3 月,一架 “Kargu-2” 军用无人机处于自主模式时,在利比亚的武装冲突中运用 “致命自动武器系统” (LAWS) 杀死了一个人。该无人机以人工智能的深度学习能力为基础,无需操作员下达指令,故而在此次杀人时并没有人的直接命令。据称,这是有记录以来史上第一个机器自主杀人的案例。

 

在追求效率和标准化的进程中,现代司法活动的机械性特征愈发显著。在公众的印象里,审判就如同古代的神话剧或道德剧,通过一种无法用逻辑形式实现的方式戏剧性地展现了共同体解决相互冲突的道德价值。然而,司法活动已经完成了从道德控制到司法机器控制的转化。以刑事司法为例,这表现在:专业的官僚体制排除了非专业人士的参与;隐蔽的辩诉交易等协商性司法替代了公开审理和陪审团的常识、道德判断;刑罚执行非公开化。刑事司法逐渐沦为一种高速运转和高效运行的机器,仅仅依靠惯性就可以为被追诉人定罪量刑。在这种程序中,司法只强调效率而非追求多元道德目标,诉讼仅被视作流水线的运转而忽视广泛道德的参与。在 “放弃审判” 制度席卷世界的情势下,忏悔、道歉这些曾经被放置于重要位置的道德诉求早已被边缘化。司法的数字化浪潮无疑会加剧此种机械化趋势计算机系统作为碾碎情感的机器,不仅使当事人之间关系的修复变得困难,司法官与当事人之间的关系同样变得疏远。

 

如前所述,算法的过程和结果可能是不确定的,但算法的事先设定是确定的。人工智能的决策必然导致一定程度上的机械司法,韦伯提出的 “自动售货机” 式司法裁判在人工智能的塑造下成为了可能。在此模式下,司法裁决者无差别地对待同类事实和证据,而拒绝关注情感和价值上的细微权衡,放弃承担依靠经验法则和逻辑法则进行事实认定以及对法律进行衡平适用的职责。

 

不过,人工智能的决策过程绝非等同于 “自动售货机” 的运作过程 (投入硬币后选择按键就必然 “吐出” 某件商品)。若如此机械地在输入和输出之间建立必然的联系,则司法官摆脱责任的可能就大幅减小,因为司法决策者如果可以预见到机器的判断,那当他决定借助机器的那一刻,责任就施加于其身了。由于深度学习的存在,机器获得了自主判断和决策的能力。计算机系统不仅具有能动性,不需要人的意志介入,而且人工智能产品本身将被人格化,成为责任承担的主体。2016年欧洲议会法律事务委员会曾发布一个报告,建议通过立法赋予机器人和人工智能 “电子人格” (electronic personhood),使机器人或人工智能主体在作出明智的自主决策或独立与第三方交互时享有特定权利并承担相应的法律责任。有学者预测,到了强人工智能阶段,法律智能系统从功能上可完全取代人类法官,如果机器获得了完整的法律拟制人格,有可能独自承担审判责任。正是由于人工智能的能动性使其成为真正可以分担法官责任的主体,法官在决策程序中逐步隐身的同时,也将责任转移给了技术系统。


四、司法责任伦理调整的新兴领域

 

开展司法的数字化,在我国前景广阔,司法机关和科技公司仍在不断合作研发科技产品,开拓应用市场。诸多领域的数字司法实践均或多或少地影响了司法责任的承担方式,因此,研究司法责任伦理的变迁和制度的改革,必须将责任伦理放置于具象的应用场景中,探察这些伦理问题的具体表现形式。本文在此选取三个我国数字司法中最具代表性的实践案例来分析,分别是证据指引系统、风险评估工具和在线诉讼平台。

 

(一)证据指引系统

 

近年来,借着智慧法院建设的东风,我国司法系统热衷于人工智能技术辅助办案系统的开发,各地形成了多点开花甚至各自为政的局面。上海市开发的 “206 系统” 具有较大影响力,此外还有北京的 “ 睿法官”、 江苏的 “ 法务云”、 河北的 “ 智审”、重庆的 “ 法治云等。这些系统运用人工智能技术,实现案件卷宗的电子化、办案管理、业绩考评、类案推送、证据审查等审判辅助功能。可以说,当前人工智能尚处于 “弱人工智能” 水平,人工智能所承担的大多数工作都是辅助性事务,其定位是增效、减负、辅助和监管,与真正意义上的 “AI 法官” 相去甚远。辅助性事务通常不会对责任的承担产生实质影响,而人工智能承担的与案件处理最具实质关联的工作是事实认定和法律适用。这两个领域也是未来 AI 法官需要攻克的问题,同时也是人工智能技术分担法官司法责任效果最为显著的领域。

 

事实认定的核心在于对证据的审查和判断,已开发并投入运用的系统对证据的审查均比较谨慎,但是也有一些系统触及了这个极为敏感的领域。例如,上海的 “206 系统” 通过制定统一适用的证据标准指引和证据规则指引,为办案人员收集固定证据提供指示和引导,对合议庭的证据审查和事实认定进行校验、把关、提示、 监督。又如,贵州法院对刑事案件司法大数据进行建模,引入了统一数据标准与数据交换共享机制,建立统一证据指引。人工智能在诉讼证明中的引入以统一证据标准为核心,重点围绕证据标准指引、证据规则指引、单一证据校验、证据链和全案证据审查判断、要素式讯问指引和非法言词证据排除而展开。从系统设计的角度出发,开发者必须将法官的心证总结提炼为各种具体的规则,再转化为计算机语言。因此,无论是较低层次的证据指引,还是未来可独立运用证据认定事实的高层次 AI法官,算法的确定性会造成证据规则的地位攀升,使法定证据主义在数字时代重获新生。

 

法定证据制度确立精确的证明力等级体系,详细规定每种证据形式的可采性、 不同种类证据在诉讼中的证明力以及证据间出现证明力冲突时的优先取舍。前文已提及,在神判在欧洲司法体系中匆匆退场后,英格兰发展出了陪审团制度用以吸收法官的责任,而欧陆则一方面运用常规化的刑讯制度强迫被告人认罪,自己承担罪责,另一方面则发展出了法定证据制度,削减法官的自由裁量权,将法官从审判责任中解放出来。在近代以前,严格的证据规则可以使法官免除宗教上的罪责,躲避杀人或致人流血的危险。当时的法学家认为,法官应当用决定案件结果的规则充当自身规避责任和风险的 “保护壳”,这样法官就可以声称自己只是执行法律的工具,而不是以个人身份行事,从而拯救自己的灵魂。正如奥古斯丁所言: “是法律而不是法官杀死了你。”

 

具有庞大体系的证据规则转换为算法后,同样可以成为法官分摊责任的避风港。实际上,我国司法实务界对证据规则有着较高的需求,法官总是在呼唤确定的规则。2012 年,在修改 《刑事诉讼法》 时,实务界提出,法官对 “ 案件事实清楚, 证据确实、充分” 的证明标准难以把握,建议立法机关予以细化,这才有了三个解释性的标准。此外,我国的法官通常不愿意主动运用心证认定事实,这也是印证证明模式大行其道的原因。有学者指出,印证证明模式限缩了事实认定的证据基础,限制了证明手段和技术的丰富性,常常否认刑事证明活动不可避免的不确定性,压抑法官主观能动性的发挥。该学者批评实践中的法官不愿意运用常理情理进行推论,简单机械地遵循 “就高不就低” 的原则,以相互印证的最低值进行认定,此种做法逃避了法官应负的裁判责任。由于司法责任制以及上诉审查的压力,法官通常不愿意运用推定,而更愿意套用具体的证据规则。若法官没有遵循证据规则,其作出的判决被认定为存在 “明显错误” 的可能性增大。如果法官不适用事实推定规则,其通常就不需要承担错案责任。这样不动用心证的法官可以告诉当事人,败诉是因为其没有提供有效的证据,是其自己的行为所致,而不是法官的主观偏见或错误。如果法官适用事实推定,将裁判的结果与法官个性化的主观判断结合起来,那么,由裁判结果引发的任何风险都会最终归于法官个人。可见,遵循法定证据规则可以规避司法系统中的上级审查或内部评查上的诘难,也可以减少当事人、社会舆论以及案件过问者的攻讦。

 

由上可知,AI法官的实质是一种法定证据主义的新生,这是技术发展的必然趋势,是不可避免的。可以预见,这样的系统在未来可能受到众多司法人员的青睐,当然也可能带来追责上的问题。如果法律专家和技术专家可以一方面合作构建合理的规范体系和算法语言另一方面恰如其分地确定AI技术扮演的角色或划定责任分配的框架,那么,这种趋势并非总会带来消极影响。

 

(二)风险评估工具

 

自动化决策系统在诉讼中的另一个主要应用场域是在刑事诉讼中作为风险评估工具辅助检察官、法官决策。在世界范围内,司法机关利用数字技术进行风险评估主要集中在两项事务上:一项是法官在量刑时对被告人的人身危险性评估; 另一项是检察官在审查逮捕时对犯罪嫌疑人的社会危险性评估。风险评估工具类似一个评分系统,设置各项指标为一定时间内被追诉人的人身危险性、社会危险性进行打分,得出的数值为司法官量刑、批捕等决策提供支撑。

 

在法官量刑时对被告人的人身危险性评估事项上,美国当前最流行的风险评估工具之一COMPAS 系统近年来备受各界关注。这是一个根据对被告人的访谈和犯罪前科等情况对被告人进行再犯风险评估的计算机系统,它被广为人知的一个主要原因是由其引发的争议案例已经成为法学理论界讨论的焦点,这个争议案例就是 2016 年 7 月由美国威斯康辛州最高法院终审的威斯康辛州诉卢米斯案 (State v. Loomis)。在该案法官对被告人量刑前,威斯康辛州惩教署官员在制作量刑前调查报告时运用了该系统,而初审法院在量刑判决中参考了该系统评估的结果,并据此量刑。该案被告人辩称,法官依靠自动化决策系统得出的结果量刑违反了正当程序原则,侵犯了其宪法上的权利。比如,出于保护商业秘密的考虑,开发公司仅向初审法院提交了评估得出的数值,并未提供算法依据,被告人认为这侵犯了他的权利因为据以量刑的信息并不精确,且该判决是基于对相似群体数值的分析,而非针对其个人的个性化判决。并且他还提出,系统将性别作为评估的一项指标构成了宪法上的歧视。威斯康辛州最高法院最后维持原判。判决认为,该系统将性别作为考量因素只是为了使结果更加准确,而非出于歧视性的考量,并且没有证据表明法官最后的判决与性别有所关联。而且该系统获取的数据和信息都是由被告人本人提供的或者通过公开渠道获取的,被告人有机会对其中的任何信息作出解释或否认。关于个性化问题,法官在判决书中坦言,该系统只给出了关于与被告人相似的群体的累犯可能性的数据,但是这个报告并不是法官决策的唯一根据,法院享有足够的自由裁量权和信息来否决不适当的评估结果。

 

该案件引发了激烈的讨论。虽然威斯康辛州最高法院认为法官只是将自动化决策系统的输出结果作为 “部分信息来源”,所以没有减损法官的独立性,但是有学者业已指出,该案的裁决并不能有效应对法官愈发依赖人工智能决策工具的潜在风险,对决策支持系统的盲从必将削弱建立在自然人理性和共情之上的司法根基。

 

除了用于法官量刑的系统外,供执法司法人员决定是否逮捕、拘留犯罪嫌疑人的决策系统也颇受各国司法机关的重视。譬如,英国 2017 年 5 月发布了剑桥大学与达勒姆警局共同开发的危害风险评估工具 (HART),该系统对犯罪嫌疑人未来两年的犯罪风险进行等级评估,用以辅助警察作出是否拘押的决策。在我国,部分检察机关也在积极开发评估系统来对犯罪嫌疑人的审前羁押必要性进行审查。2021 年初,最高人民检察院在全国多地开展“降低羁押率的有效路径与社会危险性量化评估” 的改革试点工作,笔者作为合作机构成员深度参与了对这一改革的推进。

 

这项改革剑指司法实践中长期存在的检察官 “够罪即捕” 造成的审前羁押率居高不下的沉疴。之所以形成上述局面,正是因为检察官的避责心态。对于检察官而言,作出批准逮捕的决定从而将犯罪嫌疑人羁押在看守所中,显然是最安全之道,也可使批捕检察官的责任最小化。若是采取取保候审措施,如果犯罪嫌疑人脱管脱逃,轻则不能到案影响诉讼进程,重则危害社会和民众的安全。前者会造成检察官的批捕决定受到内部的指责和 “差评”、而后者更是所有检察官 “不能承受之重”。而且,让犯罪嫌疑人在社会上 “招摇过市” 可能给检察机关带来来自受害人一方以及社会舆论的压力。综上,检察官在审查逮捕时缺乏作出不予批准逮捕决定的勇气,往往出于规避责任的考量不假思索地选择批捕。为了扭转这一局面,检察系统推出了逮捕率、批捕率、羁押率、捕后起诉率、捕后实刑率、案件比等一系列指标遏制 “够罪即捕” 的现象。但是一味地 “压实责任” 只会使检察官陷入 “两难” 境地加深检察官的决策困境,最终在 “两害相权” 的情况下选择依照 “避重就轻” 的责任权衡方式作出决定。

 

由于逮捕的证据要件、刑罚要件较为客观,所以检察官主要是在社会危险性要件上动用自由裁量权决定是否批准逮捕。司法人员在对犯罪嫌疑人的风险进行评估时充满了偏见,而计算机系统则可以有效克服这种偏见并对裁决结果进行矫正。美国的研究团队开发了一套算法用于法院的保释事务。研究表明,法官在作出羁押决定时容易在指控较轻时低估被指控人的风险,在指控较重时高估其风险,而运用机器决策可以在保持与法官决策相同的羁押率时降低犯罪率,也可以在保持相同犯罪率时大幅降低羁押率。诚然,司法官对社会危险性等要素的考量十分复杂,甚至是令人 “痛苦” 的,但在刑事司法体系中,算法的优点之一就是将这些权衡过程以前所未有的清晰方式呈现出来。

 

风险评估工具的引入为检察官审查逮捕提供了可供遵循的客观量化指标,系统本身也成为检察官理想的卸责对象。调研发现,检察官对量化评估系统几乎一边倒地抱以支持态度认为这可以将检察官从复杂的责任后果权衡中解放出来。即便之后出现问题,检察官也可以,声称这是依照系统评估的数值作出的决定,从而减轻自身的责任。由此可见,在一些领域合理运用由数字技术产生的责任规避机制可以实现促进司法公正的改革目标。

 

(三)在线诉讼平台

 

我国在线诉讼制度的构建正在高速发展,取得了举世瞩目的成就。互联网法院的设立和“移动微法院” 的推广都是这一历史性变革中里程碑式的举措。2018 年 8 月,最高人民法院在浙江省宁波市法院系统使用的智能化系统的基础上推出了全国通用版的 “移动微法院系统,并于 2019 年 3 月将其正式升级为 “中国移动微法院”。 该系统依附于微信小程序,运用人脸识别、电子签名、实时音视频交互等数字技术,实现了立案、调解、庭审、送达、执行等诉讼全流程的在线运转。在地方层面,吉林、浙江、福建等地均有各自的实践方案。

 

在诉讼电子化的过程中,庭审的智能化系统是研发工作的重中之重,也是最具革命性的变化。在线庭审运用视频传输技术,使得各方当事人、诉讼参与人以及司法人员无需到庭就可以完成宣读起诉书或答辩状,陈述各自主张;证人无需到庭就可以远程视频作证;司法人员在线上完成指控和审判工作。并且,在线系统可以通过智能语音识别技术将庭审的过程转化为文字笔录,形成视频、音频、文字的多重记录体系。

 

在线庭审活动面临的最严峻的质疑之一是该模式对直接言词原则的削弱。法官无法面对面感知案件中的人性因素,无法细微地观察当事人的言谈举止,不利于增进法官的责任感中国古代奉行 “五听” 的断狱方,以判断司法官是否勤勉尽责,其中多项要求显然无法隔着屏幕完成。有学者认为,在智能化技术介入诉讼后,当事人虽然在 “异域” 面对面,但依然可以直接地进行言词交流,法官也可真切地了解控辩双方的意思,站在功能主义的立场看,这同样符合直接言词原则。倘若说线上庭审不符合直接言词原则,那必定是一种危言耸听的论调,但在目前技术发展的初级阶段,直接言词原则在线上诉讼中是不可能毫无减损的。由于各类线上审判平台的功能参差不齐,且缺乏较完善的规则指引,我国的在线庭审可谓是乱象丛生。有的法院利用 QQ 视频进行在线庭审,更有的法院通过建微信群的方式开展在线诉讼而没有采取视频语音同步技术,最终因现场感缺失且严重违背直接言词原则而遭受学者的强烈质疑。线上庭审无疑将减弱庭审的现场感和真实感,尤其是在 VR 技术尚不能被成熟地运用到庭审当中的时期。这不仅可能动摇当事人对法官的信任,还可能反过来使得法官失去对当事人的共情心理,法官出于同情、怜悯、道德和仁慈调整规则适用的可能性降低。当面对穷凶极恶的被告人时,法官感知并在刑罚上作出威慑和惩罚性回应的概率同样减少。

 

此外,线上审判还可能造成庭审仪式感和神圣感的消逝。人类学的研究表明,人们会通过仪式在 “我们” 和 “他们” 之间建筑起一道墙。而司法本身就是一种仪式,特别是在刑事诉讼中,国家通过司法程序将罪犯定罪处刑,把 “敌人” 从 “人民” 中间区分出来。在线下庭审中,庄严的法庭、高悬的国徽、威武的法警等各式各样具有象征意义的器物、服饰、图像、符号共同构成了法庭审判的仪轨。仪式赋予了司法权威性,为集体行动提供情感和心理上的支撑,减轻道德责任。仪式可以使群体紧密团结在一起,其功能的发挥在一定程度上与参与者的聚集性成正比。至少在现阶段,在线上审判中,仪式无法如其在线下审判中那样发挥功能。

 

其实,法庭仪式和符号并非必须以现实的剧场为载体,二者都是司法的固有元素,与司法联系紧密,在线庭审本身并不排斥仪式和符号。在在线庭审中,有的仪式和符号通过视频直播被实景呈现,有的由网络平台的设计者植入。然而,手机和电脑屏幕中呈现的法庭空间十分有限,很多时候除了参与人员的头像外没有容纳其他信息的界面。在各地法院研发的应用程序系统中,囿于页面大小的限制,即便存在个别的仪式空间和符号元素,也必然十分单一,且可能存在象征意义不明的问题。当前实践中运用的软件系统还处于初创阶段,页面样式十分简略,而且研发主体首先考虑的必定是实用性和便捷性,通常不会重视仅具象征意义而无实质用途的法庭仪式和符号。因此,法庭仪式和符号在线上平台中遇到了真正的危机不过,网络又蕴藏着无限的可能,一旦仪式和符号的功能被重新发掘并强调,法庭仪式和符号也将借着技术的革新以数字化的形式呈现并重塑新生。

 

 

 

五、责任框架的重构与责任伦理的守正

 

司法数字化的过程也是司法官去责任化的过程,参与主体间的疏离感造成决策主体责任感的降低,而自动化决策系统则使得决策的责任人缺失,导致无人负责的局面。在 “有组织的不负责” 这一趋势下,若不能及时重构司法责任的框架,则程序相对人在利益受到损害的情况下可能申诉无门,司法官权责统一的原则也将逐渐瓦解。 “负责制政府” 作为民主制度最核心的原则之一,似乎走到了十字路口。在数字时代的责任承担上,人扮演的角色在多大程度上有所改变?既有的责任原则是否应当有所松动?如何处理人机的责任共享关系?这些都是亟待解答的疑问。在司法责任领域,当前面临的紧迫问题是协调机器、技术专家、系统部署者和司法官之间的责任关系,在复杂的格局中平衡各方的责任、权力和利益。

 

(一)机器与技术人员的责任

 

算法问责是学术界讨论的热门话题,之所以提出这一针对自动化决策的监管思路,原因在于,原有的责任框架是针对人类决策而设计的,无法跟上技术前进的步伐,将其运用到对计算机系统的监管时会出现制度失灵和监管缺位的情况。特别是在判定各大网络平台是否侵害相对人利益的时候,原有的“主体—行为—责任”的追责体系无法因应计算机系统的归责问题。由于设计者无法控制系统的运行,难以对系统运行后造成的后果负责,因此在责任认定时形成了难以逾越的 “责任鸿沟”。在此情况下,权益受到侵害的相对人既无法寻求平台开发者的救济,也无法要求平台运营者承担责任。因此,我国《个人信息保护法》等法律的立法思路是穿透技术面纱,不再要求界定平台的主观过错等传统侵权法要素,而直接将平台的算法作为法律监管的对象,将对平台的监管触角和追责视角直接指向算法责任。

 

然而,司法人工智能自动化决策的责任分配与平台算法的归责原则有所差别,不能照搬前述认定的思路。司法责任制中对法官追责的程序的性质是司法机关的内部纪律和行政程序,而不是司法程序。即便出现错案,决策者也不会被当事人直接送上被告席,而是由司法机关内部发起追责程序。在此情境中,系统和算法本身不构成司法审理的对象,不是诉讼的争议点。在法院审理案件时,如果当事人主张平台使用的算法侵害了其权利,则法院不得拒绝裁判,也就不得不对算法进行评价。而在另一个场景中,如果当事人认为,由于系统本身存在问题,所以司法官运用智能决策系统作出的决定是不公正不合理的,那么,其可以以此为理由提出上诉,此时算法本身可能成为法院审查的对象。在后一种情境下,法院实际上可以借鉴前述针对网络平台算法的问责机制。但正如前述威斯康辛州诉卢米斯案所显示的,一方面,司法人工智能系统的自动化水平仍然较低,不存在 “失控” 的算法;另一方面,法官在决策时不会完全依赖智能化系统,与网络平台算法对相对人的直接影响相比,人工智能的决策缺乏独立性,因而缺乏归责的基础。综上,在司法责任的认定方面,目前在划定责任时,不宜引入正式的算法问责制度。质言之,如果出现错案,作出决定的人依旧是责任承担的唯一主体,这也意味着对司法官来说,引入司法智能系统仍然是理想的卸责方式。

 

对于司法智能系统自身的问题,承担责任的主要是开发设计和更新维护系统的技术人员。当前司法科技产品一般由司法机关与科技公司合作研发。笔者正在参与检察院、法院的多项产品开发研究工作。据了解,司法机关通常会根据上级要求和自身需求告知科技公司设计的目标和思路,科技公司经广泛调研后将其转化成技术产品,二者再对产品进行调适和磨合。因此,如果科技公司未按照事先约定而擅自更改系统中具有实质影响的内容,并且没有告知司法机关,则其将承担相应责任。鉴于科技公司职员并非司法系统内部人员,无法对其进行行政上的纪律处分,但可以追究其相应的民事责任。如果情节严重,司法机关可以建议行政机关作出处罚。如果未约定相关事项,则科技公司应当秉持促进司法公平公正的目标来开发系统。科技公司若是故意或过失将不公平的元素注入系统,也应当承担相应责任。最高人民法院、最高人民检察院应出台相关规范,统一研发标准,界定研发伦理,降低司法机关开发系统的风险,确立对技术人员的追责依据。

 

若司法人员对系统的算法提出质疑,那么,如何审查算法则成为棘手的问题。对此,算法透明和算法公开并非理想的方案,因为纵然将算法交给司法机关,相关人员也无法准确解读,即便是专业人士的解读也可能出现较大偏差。从技术上看,公开源代码也不足以证明决策流程的公平性。此外,算法透明也可能在商业秘密的保护上遇到障碍,比如,向客户公开算法可能导致研发成果外泄,这不仅会使企业的正当利润受到严重损失,还将极大打击研发创新的动力。而且,受保护的内容一旦泄露,可能为其他掌握技术之人左右案件处理结果提供算法上的支持。因此,依照事先设立的原则和要求对系统的结果进行验证,认定其是否遵循了法律和政策的目标,不失为一个更可取的方案。

 

有课责就有避责和卸责,科技公司在研发系统的时候也会存在规避责任和风险的考量。比如,检察官运用社会危险性评估工具作出不批准逮捕的决定,如果犯罪嫌疑人在取保候审期间再犯罪,将极大冲击司法机关和民众对科技企业的信任度。因此,技术人员有理由出于私利在开发时尽可能将犯罪嫌疑人的社会危险性评价为更高的等级,以规避司法机关和公众对企业的责难。再如,科技公司为了提高产品的销量,在类案检索时会尽可能将先前的案例认定为与当下的案件具有实质相似性,应当予以援引或参照,以显示系统具有强大功能,可对法官断案有直接助益。这种做法可能反过来导致了 “异案同判”,同样不符合 “类似案件类似处理” 的司法原则。科技公司不可避免地追求利益最大化,而司法利益与商业利益不总是完全契合的,这就可能使算法偏离司法的目标。

 

司法机关应当秉持以人为主体、以司法官为中心的司法责任伦理,准确定位科技产品决策辅助的地位,不应当用司法责任的逻辑对待技术人员或企业人员。只有在司法决策出现系统性、结构性错误的时候,方可启动对企业的追责,原则上不能以个案结果的偏差作为追责的依据。并且,在追责的顺序上,司法机关应当首先为权利受到侵害者提供救济,换言之司法官和系统部署的相关人员应当承担错误判决带来的责任,在此基础上再讨论技术人员和企业的责任。

 

(二)系统部署者的责任

 

当前对司法智能产品责任的讨论主要关注的是开发端和应用端,关注点主要集中在作为开发者的技术人员以及作为应用者的司法官身上,而忽视了中间环节,即司法机关系统部署人员的责任。这里所谓的系统部署者就是司法机关决定与某个科技公司合作引入产品,并且负责与产品开发者对接工作的人员。这里的部署者通常是多个主体,包括司法机关内分管的领导、相关部门负责人等。比如,法院引入智能化绩效评估系统,通常需要院长、分管副院长选择或同意某个企业参与开发,案管部门负责具体对接,向企业提出要求,并对产品提出完善意见。因此,院长、副院长、案管部门领导等主体皆有可能承担司法责任。

 

中国人工智能的发展速度令人惊叹,但也存在较大的 “泡沫” 和风险,不少 “伪人工智能” 产品通过各种包装粉墨登场,依靠 “忽悠” 圈钱。司法机关对此大多缺乏审查判断的能力,法官、检察官个人对此几乎束手无策。此时,司法机关可以邀请中立的第三方研究机构或人员对公司的业务进行评估,综合企业的声誉口碑、以往研发经验等各项因素进行择选。总之,司法机关相关负责人必须以审慎的态度挑选合作伙伴,应当借助公开的招标采购程序防止科技公司的利益架空司法利益。

 

司法科技产业巨大的经济潜能使得商业资本侵蚀司法廉洁的风险逐步上升,司法人员与企业人员过从甚密使得双方 “勾兑” 的可能性加大,因此,未来司法裁判工作与人工智能产业应适度分离。技术人员无论是在研究开发阶段还是在应用维护阶段都不能与法官直接接触,而是应当与专门的部门负责人联系。如果今后因为系统的原因出现冤错案件,相关人员没有尽责审查或者出现 “共谋” 的,应当承担司法责任。

 

即便科技产品的算法本身是合乎规定的,也应当警惕技术人员化身为 “影子官僚”,在追逐经济效益的商业动机下将算法优势嵌入司法机关的投入、过程与产出等各个环节,以期待获得更多的财政资金投入,不断扩大算法权力在司法领域的影响。是故,司法机关的相关负责人必须在产品的研发方向和部署方式上占据主导地位,承担产品对司法工作造成后果的责任。司法系统应当构筑起必要的壁垒,在避免故步自封阻碍科技创新的前提下,提防科技企业等主体在以中立面目进入公权力运行结构后,带来潜在的责任和权力失衡问题。

 

(三)司法官的责任

 

数字技术催生的诸多科技产品不仅在辅助司法活动,更是在塑造司法官和司法裁决,使得司法权力主体被置于异化和物化的风险之下。数字时代的机器可以分担法官、检察官的司法责任,这意味着机器已然构成潜在的问责对象,但是当前司法责任制的构建仍然应当回归人是道德主体的伦理起点。树立和践行人本主义责任伦理,一方面需要培养司法官的责任感,另一方面需要在制度上构建合理的司法责任体系。

 

责任感的培养首先应当要求司法人员敢于担责,尽心履责,在社会公共责任与个人责任冲突时,不应当一味地以私利为先而寻求自我保护。有研究表明,人们面临责任冲突时可能有如下几种应对方式:其一,灰心丧气,失去决策能力,也就是所谓的道德堕落;其二,丧失责任感,在决策时仅考虑偶发和外部的压力等因素;其三,作出积极的决策;其四,通过绕开可能有所分歧的解决方法的冲突,发展出一种规避责任的能力;其五,发展出一种实施模棱两可措施的能力,保持中庸,尽可能不违背任何规则,如在刑事诉讼中作出 “留有余地” 的判决。其中,正确的责任观是选择积极决策,明确表达自己的价值观和倾向性,而极端的负面做法则是消极堕落失去决策能力,其他介于中间状态的几项则囊括了本文所论及的规避责任、推卸责任等动机。除了积极地转移和分摊责任外,消极冷漠地应对决策事项也是一种拒绝承担责任的做法。康德有言,责任与爱好不同,前者是一种主动的关切,后者则是被动的关切。一个出于责任的行为是与对象的关切无涉的,仅仅着眼于行为本身及其理性原则和规律。所以,责任产生于对道德律的尊重,并且有别于爱好、恐惧等因外在作用而感知的情感,对责任的尊重是通过理性概念而产生的情感。因此,司法官在作出司法决策时应当主动承担责任,主动关切社会、当事人的利益,秉承 “哀矜折狱” 的司法伦理。

 

在人与机器的责任划分问题上,责任伦理的原则是只有人才能为其所做的事情负担起道德上的责任。一个行为者为其行为承担责任的过程就是使这些行为成为 “他自己的” 的过程。有学者指出,承担责任包含三个要素:其一,一个人必须把自己当作其行动的根源,必须把自己视作行为者,世界上的某些结果是其选择和行为的结果;其二,行为者必须把自己视为社会、他人或自我反应态度的适格对象;其三,这些信念或者说是对自我的看法,必须以适当的方式建立在个体的证据基础之上。伦理学研究表明,只有当外部的电子刺激产生了不可抗拒的欲望使得行为不受控制,抑或是关于责任的反应机制是通过电子技术植入人脑产生的,在行为者察觉到并进行思考控制之前,其无需对实际导致其行为的机制承担责任因为导致其行为的这个机制并非 “一个人自己的”。从上述标准看,人工智能参与司法的程度远未企及。因此,在数字时代守正司法伦理,应当让法官意识到自己才是作出裁决结果的行动者,即便在人工智能辅助的情况下,作出有效力的决定仍然是通过 “他自己的” 行为,责任归属也在于法官自身,进而确立 “责无旁贷” 的责任伦理。

 

笔者在调研访谈中发现,许多司法官的确将机器的提示或校验作为增强自身决策合理性的理由,甚至成为决策错误的借口。有的司法人员的决策完全出于自我认知和考量,机器的判断结果只不过成为其事后补强自己裁判理由的论据;而有的司法人员在作决定之前确实参考了机器的指示。但是在司法责任的认定上,不能过多纠结于系统对决策者影响的时间和程度,司法官即便事前参考了机器的输出结果,也依然对司法行为负有审慎的义务。不过,在一些具体的应用场景中,责任分配的情况可能有所不同。如证据指引系统、类案推送系统之类的应用主要是为司法官的工作提供便利,系统并不会进行人们难以理解的操作,并且最终输出的结果也是可以通过经验验证的,因而在这些情形中机器并不能吸收人的责任。但是对于风险评估工具,决策者在很多时候并不清楚 “黑箱” 内的情况,司法人员也不是从事风险衡量和管理的精算师,不掌握各项指标的统计方法,故而在进行风险评估时在很大程度上依赖于算法的指示。笔者参与开发的 G 省和 H 省某市、区检察院的逮捕社会危险性评估系统就包含了将近 70 个变量,每个指标都根据业务数据分析、实务部门经验判断、法学专家论证后等步骤被赋予一定的权重,再经由计算机按照预先植入的算法输出最终数值。将来,针对犯罪嫌疑人社会危险性的评估系统还将运用面部特征识别等技术引入心理学的分析数据。是故,在这些系统的应用中检察官不仅不完全了解计算衡量过程,还难以在结果上验证犯罪嫌疑人是否具有此种风险。因此,在这些事项的决定上,司法官可以有限地减免责任,但系统的部署者应当负有审核算法或验证数据的责任。

 

除了在道德上培养司法者的责任感之外,制度框架的建设同样重要。2021 年,中央政法委提出推进执法司法责任体系的改革和建设,围绕 “督责” “考责” “追责” 三个环节强化履责尽责,严肃追责问责,推动司法官恪尽职守、担当作为,树立正确的责任观。这表明司法责任制改革已经迈入了精细化阶段,构建司法责任制不仅应当考虑预先的明责定责、结果的追责问责,还应当考虑司法过程的责任控制,促进责任主体担责履责,纠正不正当的避责卸责行为。此外,必须意识到数字时代司法责任发挥功效的形式正在转变,从而在顺应时代潮流的基础上革新责任制度。

 

司法责任制改革在不断为司法官加压的同时,应当为其设置正当且合理的疏导和排解压力及责任的渠道。司法官避责和卸责的动机及行为是不可避免的,只有明确合乎道德和法律的减轻责任方式,才能堵住不当规避和推卸责任的途径,才能积极引导决策主体在司法过程中承担起应负的责任。除了司法过程的责任控制,从结果控制上看,司法官也在呼唤容错机制的建立,希冀获得更多的包容、保护和激励。在这一改革着力点上,数字技术具有天然的优势。因此,司法责任制综合配套改革应当在坚持 “岗位与职责相对应、问责与免责相结合、权利与义务相统一、责任与保障相匹配” 的原则上,充分、合理地运用人工智能、大数据等数字技术,顺应和借助司法数字化的趋势,推进我国司法责任体系的建设和完善。

 

 

 语

 

未来已来,将至已至。司法的改革永远跟不上技术的革新,责任困境也不可能阻拦司法数字化的潮流。因此,拥抱技术,并对此保持高度警惕,方为正道。实际上,本文提及的诸多责任困境,有的随着技术的发展会更加尖锐,如未来机器人法官的诞生必然将加剧法官与机器之间的责任冲突。但是在另一些情境中,当前的困境在某种程度上说可能只是技术欠发达的产物,,如线上诉讼平台等应用产生的问题很大程度上是因为数字技术尚处于不能满足实践需求的“阵痛期”。既然技术推动下的 “去责任化” 的趋势不可阻挡,责任伦理的危机难以根除,那么就应当思考如何合理地运用这一机制,引导司法官将责任流转机制运用到促进司法公正等价值目标之上。

 

数字技术虽然具有 “去责任化” 效应,但也为问责和追责提供了新的助力,可以用其构筑起严密的责任控制网络。除了前文提及的风险评估工具等系统之外,全流程监控系统的研发思路也是将机器用作解放检察官自身责任的工具,这不失为一个正面的案例。检察机关除了被动受理和办理案件之外,还承担法律监督职能,其需要主动出击,对执法司法活动进行监督。先前,检察官在对公安机关的侦查活动的监督过程中,顾及警检关系,难以对违反程序的行为进行全面监督。如今,检察机关针对公安机关的侦查活动开发了智能化全流程监控系统,对不合法的侦查行为自动预警,让计算机系统成为部门责难的“挡箭牌”。显然,此类责任机制的应用具有重要的积极意义和广阔的发展空间。

 

在制度理论中,依据考核产生的激励和惩罚是撬动责任主体行为的主要杠杆。我国的数字技术也正在检察院、法院的业务考评事项上占据关键地位。技术人员正在利用司法机关办案产生的大量数据,如裁判文书网数据、内部留存数据等,设计出自动化或半自动化评价体系。笔者参与研发的 B 市某检察院业务考评系统就是通过最底层的数据层、中间的模型与算法层以及顶层的方案应用层三重架构开发系统的,可以满足司法人员工作量测算、业务考评、日常管理等需求。数字技术可以建立科学的考评指标和体系,增加司法考评施加在司法人员身上的压力,强化以考核结果为依据的追责力度。数字技术还为司法机关注入 “静默化管理” 的新方法,即在行为合乎规定时,司法官不会感受到监管的存在,只有司法官在已经违规或存在违规的重大风险时,系统才会根据偏离度判断等结果进行干预。数字化监管体系的建立,特别是工作量测算和监督等机制,让司法官的 “懒政惰政” “避责卸责” 等现象无处遁形。

 

由此可见,数字技术虽然容易引发责任缺失的问题,但在一定程度上也可以更为及时有效地发现和管控此类行为。在很多时候,技术带来的问题应当交由技术来处理,比如对算法的审查等可 “让技术的归技术”。法律规范在面对新兴技术时多少显得力有不逮。那么在司法责任领域,改革者是否可以任其发展让数字红利抵消技术产生的不利影响?答案是否定的。数字化运动对司法活动产生的深远影响,尤其是对司法责任造成的结构性异化是无法通过数字监管技术修复的,也不应寄望数字技术可 “自愈” 而不对其施加多维度的干预改革者不能以 “头疼医头” 的线性逻辑应对数字司法的 “去责任化” 效应,而应从更复杂的整体上理解和把握司法责任背后的行动体系和主体间关系。数字化监管只能是综合治理数字司法责任问题的手段之一,而无法在源头上填补司法者的 “责任空洞”。鉴于此,在对责任异化进行 “病理学” 诊断的基础上,结合数字司法的本质特征对数字时代的司法责任进行及时和全面的外部干预,重新构建司法责任的分配方式,逐步将数字时代的司法责任伦理内化于司法者的心中,这对转型时期司法目标的实现有着极为重要的理论和现实意义。