【作者】赵泽睿
【内容提要】
算法论证程序的意义——对法律规制算法的另一种思考
*作者 赵泽睿
上海交通大学凯原法学院博士研究生
中国法与社会研究院研究助理
摘要:算法,在从处理实验数据的逻辑规则演变为处理社会数据的人机交互决策机制时,其概念含义发生了本质变化。对算法概念变化的忽视,导致了法律规制算法研究对研发与应用的阶段混同。而重实体、轻程序的偏好,更是引发了法律规制算法研究的碎片化争论。对此,算法论证程序,作为由法律要求算法应用主体按照特定标准和条件整理利益相关方意见后,对其算法应用的决定做出可使利益相关方理解与认可的沟通过程,其概念的提出有利于澄清现有的阶段混同,并纠正重实体、轻程序的偏好。同时,算法论证程序具有的相对客观合理性、衔接技术中立与技术向善性、多元价值兼容性,为法律限制算法权力恣意、解决算法黑箱问题和减少算法歧视提供了全新的沟通性视角。
在新冠肺炎疫情爆发后,生活与工作的线上转移已经成为了全球疫情防控的重要举措。数字空间已经从原来的研究与实验场所扩张到当代购物、娱乐、社交和办公的主要场所。算法,作为代码构建数字空间的逻辑规则,也从原来的研究数据处理工具转变为了当代的社会数据处理工具。而随着以机器学习为代表的人工智能技术兴起,基于大规模数据自动、高效地产出能解决复杂问题的算法得以可能。算法便成为了政府和数字平台企业预测、诱导以及规制人们行为的新型利器。例如,在信息内容生态领域,社交媒体平台在利用算法规范用户的信息内容发布与流动;在网络交易领域,电子商务平台在利用算法规范商家与用户之间的交易行为;在城市交通领域,交通出行平台在利用算法规范司机的车辆营运行为;在金融与征信领域,数字金融平台在利用算法规范用户的金融借贷行为。此外,随着全球各国先后将数字政府建设、智慧法院建设、人工智能研发列入国家发展规划文件,算法已经成为了以数据为“燃料”,驱动国家治理变革与社会数字化转型的“引擎”。
然而,随着算法在数字社会中的权力不断扩张,各类因算法设计的恣意性引发的算法偏见与算法独裁等算法权力滥用事件频频出现,这些事件反过来敦促人们思考该如何规制算法这项新型规制工具。例如社交媒体平台操纵政治选举、电子商务平台进行大数据杀熟、法院利用算法量刑引发歧视、公安利用算法监控侵犯隐私等。由此,继把算法作为一项新型规制工具的热潮过后,学界又掀起了将算法作为新兴规制对象的浪潮。法学界开始对如何保护算法可能侵犯的选择自主性、知情权、平等和自由等基本价值进行热议,大量关于算法的法律规制文章接踵而至。
在此背景下,本文将对法律规制算法的现有研究进行一个总结与反思,并据此指出法律规制算法的另一条思考路径。首先,本文认为,法律规制算法的现有研究存在着“算法研发阶段与应用阶段的混淆”、“注重实体性判断而缺乏程序性分析”两个问题。这两个问题导致了我国现有研究在宏观层面上反复重申“可解释性”、“公开透明”、“公正”等规制原则但对这些原则的内容与落实却争论不止,在微观层面上对“自动驾驶”、“人脸识别”、“辅助裁判”等应用场景有实体规制建议但却难以形成统一性的法律规制理论。其次,本文将基于算法应用与法律适用的功能相似性,提出适用于算法应用阶段的算法论证程序概念,并依据算法应用所面临的不确定性问题,阐述提出算法论证程序概念的正当性,以及进一步描述算法论证程序的三项基本特性——相对客观合理性、衔接技术中立和技术向善性,以及多元价值整合性。最后,本文将从算法论证程序的视角反思算法权力、算法黑箱和算法歧视的问题本质,并据此论述算法论证程序概念的提出对限制算法权力恣意、解决算法黑箱问题,以及减少算法歧视的意义。
| 法律规制算法的现有主流意识以及争议 |
算法,最早作为一种数学与计算科学的术语,被定义为“解决特定问题的一系列规则”、“精确指示计算机操作的一系列规则”、“指示代码编写的逻辑规则”和“为了实现某一目标对一组数据进行处理的逻辑规则”。而随着互联网技术与以机器学习为代表的人工智能技术发展,算法逐渐被运用到了社会生活的各个领域。部分学者便将这些在社会中广泛运用的算法,延伸定义为“一种人类与机器交互产生的决策机制”,即“一种人类利用代码和数据进行自动化决策的机制”。在法学界,除了以知识产权视角研究算法的学者采用算法的技术定义外,绝大部分算法的法律规制研究均是采用了算法被社会广泛应用后的延伸定义,即将算法认定是一种基于代码构建与数据处理的决策机制。
而现有研究对法律规制算法的必要性论述主要是从算法权力、算法黑箱和算法歧视三个方面展开的。首先,算法作为一项科学技术,在从研究所和实验室逐渐进入到社会各领域的过程中,其价值中立性受到普遍关注与质疑。现有研究普遍认为,在数字社会广泛运用的算法中已经暗含了人们的价值判断。算法虽来源于科学技术,但其并非价值中立,甚至还存在主观任意性,其已经在数字社会产生了一种新型权力。这种算法权力因缺乏监管而易被滥用与异化,进而危害公民自由与权利秩序。因此,为了保障数字社会中的公民自主性与人格自由,算法权力应当受到法律的规制。其次,由于最近兴起的机器学习技术在挖掘数据来自动生成相关算法时缺乏透明度,算法黑箱便成为了法律规制算法另一理由。“算法黑箱”是指人们无法从外部直接观察或打开算法系统的数据处理过程,而只能得知其输入数据和输出数据。其导致人们难以理解算法进行决策时的具体逻辑,进而无法对算法决策产生信任,甚至会担忧和恐惧在算法不断扩张应用的未来社会中被算法暗中操控。因此,为了在人类与机器的交互决策过程中构建信任,防止算法黑箱诱发算法权力滥用和加剧算法歧视,算法黑箱便需要受到法律的规制。再有,因为机器学习是通过提取数据的抽象特征来自动、高效地产生代表数据背后规律与规则的算法,而这些用于训练算法的数据本身可能蕴含了社会现存的歧视与不平等,那机器学习在提取这些数据的抽象特征时,便可能将这些暗含于数据的不平等归纳进算法之中,进而导致固化甚至放大现有社会中的歧视与不平等现象。因此,为了保障公民在数字社会的平等权、包容未来社会的人格多样性与个体独特性,算法歧视也成为了法律规制算法的重要理由。
| 现有法律规制算法研究的两个问题 |
(一)对算法研发阶段与应用阶段的混淆
算法,在研发阶段作为一项科学技术,被定义为“为了实现某一目标对一组数据进行处理的逻辑规则”,而在社会应用阶段,算法则被延伸为了“一种人类与机器交互产生的决策机制”。在算法概念的延伸过程中,实际上暗含了应用阶段的人类判断,即算法应用者选择特定算法(此处的“算法”为技术定义)作为决策规则嵌入到特定社会领域的过程。现有研究大多忽略了这个概念转换过程中的人类决策过程,而直接将算法的社会应用认定为了算法中的逻辑规则决策过程,进而导致现有研究全部聚焦于算法的技术研发阶段而忽略了算法应用阶段的可规制性。这不仅误解了“技术中立性”的内涵与意义,更混淆了算法在技术研发阶段和社会应用阶段所分别蕴含的技术属性与社会属性。由此,现有研究才会出现借用研发阶段的“可解释性”等技术概念却陷入了实践困境、尝试直接约束算法的生成过程却因违背技术发展原理而遭驳斥的争论。
首先,现有研究对“算法中立性”的批判,实质上仅局限于对算法“价值中立性”的驳斥,却未重视对算法“技术中立性”的探讨。而技术中立性恰恰要求人们尊重技术发展的独特价值,在法律规制层面则意味着要划分算法的研发阶段与应用阶段,分别论证其规制正当性与规制方式。技术中立性并不等同于价值中立性,其虽然承认技术的研发依靠于追求客观性的科学对客观结构的认识与运用,但依旧认为技术和科学是人类意识形态的表现。因此,技术中立性并非是否定技术内所蕴含的人类意识形态,而是“在一种最低意义上表明了技术作为社会实践的特殊范畴,因其自身的客观结构和编程属性而具有讨论起点意义的独立性。反映了技术价值切入社会世界的一种相对独立状态”。以贴近日常生活的工具——刀来解释,技术中立性认为制造刀的阶段与使用刀的阶段都蕴含了人类的意识形态,但在制刀阶段的价值追求与用刀阶段的价值追求应当分别讨论。
在此种意义上,算法的技术中立性是指算法作为一项科学技术因其客观结构和编程属性而具有独立讨论其内涵价值的必要性,不应当用其社会应用时的价值判断完全代替其技术研发时的价值取向。算法在技术研发阶段,追求于用计算机可理解和操作的语言表达特定数据的处理规则,如机器学习技术在研发时是追求一套能让计算机自行提取样本数据集蕴含的逻辑规则并生产特定算法的算法。然而,当算法作为一项决策规则嵌入进社会特定领域时,利益相关者所关心的是算法作为特定领域的决策规则是否具有合理性与正当性,而非特定算法具体是由哪些计算机代码所构成的。例如当机器学习应用到法院量刑时,公众关心的并非该技术的具体代码,而是该技术用于定罪量刑的合理性与正当性。虽然算法在技术研发时的价值判断会影响其社会应用时的价值判断,但其在技术研发时依旧应当保持价值判断的独立性。因此,法律规制算法的研究应当重新审视“技术中立性”,划分算法的技术研发阶段与社会应用阶段分别进行规制讨论,并在技术研发阶段充分尊重算法作为科学技术的独立价值。
其次,现有研究因未区分算法的研发阶段与应用阶段而对算法“可解释性”概念产生了误用。在技术研发阶段,技术人员所主张的算法可解释性是通过代码编写规范来规制技术人员的编程行为,如采用缩进风格、排版整齐、语句可读、进行规范的代码注释等。这些“可解释性”的技术规范是为了方便其他专业研发者对已有算法的理解与运用、促进算法合作研发与系统检查的高效性、进而保障系统源程序的可读性和系统的可维护性。然而,现有研究未划分研发与应用两个阶段来分别讨论,而直接将算法研发时的可解释性概念延伸到了算法应用阶段,试图以技术规范来解决应用问题。这引发了算法可解释性概念的误用。因为算法的研发阶段和应用阶段所面向的利益相关者并不相同。在算法的研发阶段,算法的代码编写者面向的是其他工程师,他只需用符合专业规范的代码注释来告诉其他工程师其算法的实现逻辑,但如果要求他要面向一般公众或是具体应用场景的利益相关者来揭开其算法编写逻辑是不现实与不可行的。更何况社会应用的算法往往是大量代码编写者共同合作的产物,法律无法要求他们以通俗易懂的语言来阐述他们所负责的部分算法。同时这也忽视了算法复合可能产生的突生属性,毕竟算法的代码编写人员无暇也无力去思考其每一列代码可能在复合系统与复杂社会中产生的各种可能性。因此,法律规制算法的研究应当基于技术研发阶段和社会应用阶段的不同规制需求,提出专属于算法应用阶段的新概念,而非共用“算法解释”的概念。
再有,算法的研发阶段与应用阶段突出了算法的不同属性,若算法的法律规制混淆了两者的属性,将会导致算法在法律规制与技术发展之间产生不可调和的冲突。算法作为驱动人工智能发展的引擎,其研发规划已经成为了全球各国的未来发展战略之一。各国研究机构都在大力研发能驱动强人工智能的机器学习算法,企图在强人工智能研究领域占领高地。在这个强人工智能的研发过程中,算法突出了其技术属性,即其仅被当作完成特定数据集处理的工具。因此在算法的研发阶段,规制算法的社会规范并不直接规制算法本身,而是规制算法的研发者,即算法仅是工具而不具有主体性,如禁止将机器学习算法用于研发武器装备等规定实际上是针对算法的研发者。在算法的技术属性层面上,算法与其他科学技术,如核技术、纳米技术等具有相似性,而不具有为其专门立法的独特性与正当性,已有的科学技术研发规范一样适用于算法的研发。然而,算法具有专门立法的独特性与正当性是因为其在应用阶段突显出的社会属性,即“拟主体性”。这种“拟主体性”是指算法在社会应用阶段通过对数据的自动认知实现智能系统的感知、决策与执行,以此功能性模仿人类的主体性。由此,算法的社会应用将分散性、即时性、个体性的人类主体决策机制转变为统一性、预先性、共识性的人机交互决策机制。因此,是算法在社会应用阶段的“拟主体性”,才让其不同于一般科学技术而具有了专门立法的独特性与正当性,即构建人机交互决策的合理性与正当性。
(二)重实体而轻程序
在算法的法律规制难以形成普遍一致的实体法规则已成为学界共识后,主流意见开始转向讨论具体场景中的算法规制规则,但也有小部分学者开始从程序法视角思考算法的法律规制。有学者从算法的法律性质出发,批评了将算法认定为言论和商业秘密的既有观点,并以算法权力具有“准国家权力”性质为由,提出应以正当程序来规制算法权力。在此观点的基础上,另一学者以算法的政府使用为切入口提出了根植于算法设计的“技术性正当程序”观点,并据此重申了算法公开、算法可解释性和结果审查的既有主张。也有学者进一步讨论了算法的商业秘密保护与正当程序保障之间的利益平衡,并提出通过有限公开、保密协议进行实质审查和赋予用户算法拒绝权的法律规制方式,以此形成基于过程和结果的算法正当程序。由于目前直接主张由法律程序来规制算法的文献较少,这些观点又与本文观点直接相关,在此将一一展开评述。
首先,对于批判将算法当作言论和商业秘密,主张基于算法的“准国家权力”来要求算法拥有者受到正当程序限制的观点。其揭示了仅仅依靠算法研发阶段的规范价值——自由创新和市场激励,是无法应对算法带来的社会困境的。更指出了算法权力应当通过正当程序来进行法律规制的研究方向,为包括本文在内的算法的法律程序规制研究奠定了理论基础。然而,因其混同了算法的技术研发阶段和社会应用阶段,导致其观点一味地否定了言论自由和商业秘密对法律规制算法的意义。算法在技术研发阶段,作为指示代码编写的逻辑规则,是工程师们针对具体问题以计算机语言来表达其观点和智慧的产物,更是科技企业花费大量财力和物力的劳动所得。言论自由和商业秘密在此阶段为算法研发的创新发展提供了制度保障,其意义不该被完全否定。需要注意的是,算法在尚未被应用到社会之中,而仅存在于实验室里时,是不会产生所谓的“准国家权力”。因此,完全否定言论自由和商业秘密对算法的规制作用,并以算法权力为由要求正当程序规制的观点,难免有以偏概全之嫌,可能会阻碍算法作为科学技术的创新发展。并且,该观点在阐述“正当程序”时依旧回归到了算法的公开,即其认为算法的法律程序规制依旧是与算法的透明度直接相关。虽然该观点在后续提出了以“输入端”和“输出端”的评价来代替算法公开作为正当程序的要求,但其观点背后实则暗含了将算法的权力行使过程或者说决策过程等同于系统内部基于代码的数据处理过程,而忽略了算法应用阶段实则是一个人机交互过程而非单纯的系统运作过程。
其次,对于提出从算法设计源头构建“技术性正当程序”,将法律程序代码化的观点。其虽然指出了一条以法律程序视角研究算法问题的思考路径,但本文认为还存在着另一个被忽视的研究视角,即仅依靠“技术性正当程序”是无法完全解决算法权力、算法黑箱和算法歧视问题的。该观点以自动化行政场景切入来主张的“技术性正当程序”,侧重于以法律程序的视角回答如何设计出一套符合现代法治政府理念的自动化行政算法,即其所谓的法律程序代码化。然而,其观点关注于将“程序正义”的理念在算法设计层面嵌入进算法的具体代码之中,但这无法在算法的社会应用阶段限制算法使用者利用该算法产生的权力,也无法解决算法黑箱难以让公众信任其决策的实践问题,更无法在政府使用该算法进行自动化行政的过程中规制人机共同产生歧视的问题。毕竟该文所主张“技术性正当程序”的观点只是追求于打造一把符合正义理念的“剑”,但忽视了对挥剑人的规制,进而容易导致正义之剑被滥用的情形。由此,该观点大部分篇幅借鉴了技术文献和技术用语,却又突兀地简略提及自动化决策的事后听证,混杂了算法在设计阶段和应用阶段具有不同价值取向的法律规制观点。因此,在关注到法律程序能为特定场景的算法研发提供指引之外,也应当注重其在算法应用层面的规制作用,即通过在算法应用过程中构建特定的法律程序来塑造信任,而这正是本文试图揭示的视角。
再有,对于批判商业秘密无法有效规制算法,进而提出基于私法的知情同意权和算法拒绝权,以及基于正当程序的算法公开和内外部审查的观点。该文在总结了上述两篇文献的基础上进一步指出了法律程序对算法的规制不能仅局限于关注输入和输出的结果评价,还要注重于算法应用的过程评价。其提出的“算法运用时的技术论证”、“算法运营者需要解释算法决策的基本逻辑”等观点均为本文后续的观点提供了基础。然而,该文对基于过程的算法正当程序论述较少,仅停留于中立、参与、效率等原则,而并未针对算法本身的特殊性来设计算法应用过程的法律程序,更未以算法应用阶段的法律程序视角去谈论算法权力限制、算法黑箱问题和算法歧视问题。进而导致该文虽提出了基于私法的赋权规制路径和基于程序的审查规制路径,但未谈及两者关系,也未能将两者有机结合起来。
在此需要指出的是,法学界以程序视角研究算法的法律规制才刚刚兴起,对算法权力和算法黑箱的问题虽有初步探索但仍不够具体和深入,且缺乏以法律程序视角反思算法歧视问题的研究。目前对算法歧视的法律规制研究均直接从具体的算法歧视问题(如大数据杀熟)出发,或是默认以算法基于群体特征的自动化决策必定蕴含算法歧视为前提,进而试图提出各种实体权利来进行法律规制。但算法歧视并非是一种内嵌于技术之中且恒久不变的问题,其实际上仅出现于算法应用阶段。算法作为数据处理的逻辑规则,其运作依赖于对数据的分类,如机器学习算法必须基于大量具有类型化标签的样本数据才能产出对更多数据进行分类处理的算法。在技术研发阶段,算法对数据的分类处理并不涉及歧视的问题,只有在社会应用阶段算法的歧视问题才会产生。例如,对于处理人脸数据的算法而言,许多研究者会利用其探究人脸数据差异和政治偏好之间的关联,以及人脸数据差异和社会阶层的关联,这些研究中的算法并不会被认为存在歧视。但这些处理人脸数据的算法若从实验研究进入社会应用便会产生一系列的算法歧视问题,进而需要法律规制。这是因为算法作为数据在统计学意义上的关系规则,其对不同数据的差异化处理是否构成“歧视”并不取决于算法本身,而取决于数据在社会应用过程中的指涉。尤其是在机器学习兴起后,算法的构建将会突破人类对数据关系规则的认知局限,在人类都难以认知数据的关系规则情况下,该算法在社会应用时进行的决策是否构成歧视将会比人类决策的歧视问题更加复杂。在难以用人类易理解的语言准确描述算法所蕴含的数据关系规则的情况下,试图从技术层面规定算法歧视的认定标准并据此规定实体权利的法律规制方式是不现实的。在这种对算法歧视的定义不清且多变的情况下,实体法规制容易陷入“一管就死、一放就乱”的悖论,即过于宽泛的定义会严重抑制算法的应用范围,过于狭窄的定义又无法有效规制算法歧视问题。如面对人脸识别的算法,若宽泛地认为处理个人敏感数据的算法均构成算法歧视,将会严重阻碍人脸识别算法的技术研发,但若狭隘地认为处理个人敏感数据的算法仅在用于重大决策时构成歧视又无法有效规制人脸识别滥用的问题。因此,法律对算法歧视的规制研究也势必要转向法律程序视角。这一方面体现为不再追求适用于全部应用场景的实体认定标准,而是从法律程序视角重新界定算法歧视,另一方面体现为不再试图完全依赖于技术改进和研发来解决算法歧视,而是通过构建算法应用的程序规则来应对算法歧视。
综上,在算法的法律规制研究处于混淆技术研发阶段与社会应用阶段和重实体而轻程序的当下,本文将以法律程序视角提出一条聚焦于算法应用阶段的规制路径,并据此论述此种规制路径的研究必要性。
| 算法论证程序的含义与基本特征 |
(一)算法论证程序的概念及其正当性
“算法论证程序”(Algorithmic Argumentation Procedure)是指,算法应用主体按照特定标准和条件整理利益相关方通过一定顺序、方式和步骤得出的意见后,对其算法应用的决定(即选择某项数据处理或代码构建的逻辑规则作为决策规则嵌入到特定社会领域)做出可使利益相关方理解与认可的沟通过程。其概念中的“论证”和“程序”分别对应了“算法的法律规制应当区分研发阶段和应用阶段”与“算法的法律规制研究应当注重法律程序视角”的两个主张。
首先,“算法论证程序”聚焦于算法应用阶段,其概念中的“算法”采用了延伸定义,即一种基于代码构建与数据处理的人机交互决策机制。而“算法论证程序”中的“论证”,则是基于算法应用与法律适用的功能相似性,借鉴了“法律论证”(Legal Argumentation)的定义,即就代码构建与数据处理的逻辑规则该如何嵌入社会而说服利益相关者,其对象在于论证的理性可接受性。对此,近几年来一些将法律与算法进行比较的交叉研究,为本文将法律论证理论引入算法规制理论奠定了正当性。先是有国外学者从软件工程学的视角分析了算法与法律之间的相似性:“在功能层面上,算法与法律都是由一系列规则组成,而这些规则都是为了管理某些操作,法律管理人的交互操作,算法管理计算机的交互操作”。例如,算法规定了计算机在接收到某种数据输入后得出某种数据输出的规则,法律规定了特定人(除了自然人,也包括法人、国家等拟制人)在某种环境或行为输入后输出特定权力或权利的规则。基于这种功能上的相似性 , 该学者将软件工程学中对算法代码的理技术引入到了法典编纂的立法研究中。后有研究从法学与认知科学的视角论证了算法与法律的功能共性:“算法和法律作为实现特定目标的指令集,均是通过过滤信息、建构模型来降低认知负担、提高认知效率”。并基于此种功能共性,该研究提出了从结构层面借鉴算法设计的基本原则来观察与认识法律。在这些基于算法与法律的功能共性而将算法设计理论引入立法理论与法律认识理论的研究基础上,本文试图反向将法学论证理论引入算法规制理论。算法,作为数字空间的架构规则,在社会应用阶段与法律的司法适用阶段具有功能上的相似性,即算法应用与法律适用均是特定主体决定将自成一体的逻辑规则嵌入进社会并对利益相关者产生强制力的规范性过程。因此,保障法律适用合理性的法律论证理论也应当能够用于保障算法应用的合理性,进而也就拥有了提出“算法论证程序”的正当性。
其次,“算法论证程序”中的“程序”是指法律学意义上的“程序”,即其属于法律程序(Legal Procedure),而非软件工程学意义上的算法程序(Algorithmic Programs)。因此,“算法论证程序”中的“程序”主要体现为按照一定的顺序、方式和步骤来作出算法应用决定的过程,其包含了算法应用决定成立的前提和客观评价决定过程的合理性标准,并影响着利益相关者在程序完成后对算法决策的信任度。而“算法论证程序”突出“程序”的正当性在于其能在算法应用充满不确定性的情况下保障算法应用决定的合理性。根据上文所述,目前从实体法层面对算法的法律规制研究处于场景化原则遮蔽下的散乱纷争之中,这是因为实体法难以为方兴未艾的算法应用在丰富多样场景中寻找出普遍一致的合理性标准。但“程序并没有预设的真理 (truth) 标准 , 程序是通过促进意见疏通、加强理性思考、扩大选择范围、排除外部干扰来保证决定的成立和合理性”所以从算法应用与法律适用所共同面临的不确定性问题来看,法律程序的相关理论具有延伸应用到算法规制研究之中的正当性。对于法律适用而言,不确定性 (indeterminacy) 问题是指法官为了在法定审期内基于由当事人叙事而成的心证与法律体系中的逻辑,决定具体案件场景中适用哪一条法律所必然面临的主观性与价值判断。而与此对应的是,算法在社会应用阶段也同样面临着不确定性问题,即算法应用者为了在特定期限内基于对利益相关者需求叙述的主观认识和算法技术体系的逻辑,决定特定应用场景中适用哪些算法所必然面临的主观性与价值判断。面对这种无法完全避免的不确定性问题,当下的法学理论逐步聚焦于法律适用过程中的议论过程,通过制度上的程序要件来保障法官论证的合理性和可信性,进而在承认不确定性的基础上寻求动态的权利共识。因此,算法论证程序也可通过制度上的程序要件来保障算法应用者论证的合理性和可信性,进而在承认算法应用存在不确定性的基础上寻求动态的人机交互决策共识。
综上,基于法律适用和算法应用在功能层面与不确定性问题上的共性,算法论证程序概念的提出得以获得正当性,其聚焦于算法应用过程中论证的理性可接受性,通过程序要件在不确定性的基础上保障算法应用决定的合理性与可信性。
(二)算法论证程序的基本特性
在上述的概念定义下,本文将进一步阐述算法论证程序的三项基本特性,即相对客观合理性、技术中立与技术向善的协同性,以及多元价值整合性。
1.追求相对客观合理性的算法论证程序
算法从研发阶段落地到应用阶段时,引领规制规范的理性价值将从理论理性转为实践理性。然而正如上文所述,算法应用与法律适用所追求的实践理性将会面临着无法避免的不确定性问题。那在这种不确定性存在的基础上,如何理解算法论证程序所追求的合理性?对此,本文将进一步阐明算法论证程序所追求的合理性含义。
首先,算法论证程序所追求的是一种客观合理性而非主观合理性。主观合理性体现为一种只在主观内获得证立且不适用于其他利益相关者的内在应然性。在算法应用阶段,追求主观合理性的法律规制观点主要表现为算法应用者的自我道德约束,其将算法的社会应用认定为应用者的意志行为,当且仅当算法应用者确信其算法应用决定符合其所持的道德规范时,该算法应用是主观正确的。与此相对应,算法论证程序所追求的客观合理性,则体现为一种客观可证立的或已被证立的外在应然性。其在算法应用阶段则表现为,某项算法应用决定当且仅当与能被客观证立或已被客观证立的道德规范相符合时是客观正确的。因此,不同于依赖自我道德约束的决断主义观点,在算法论证程序视角下,算法应用者对其每项应用决定的合理性主张都连接着对这一主张加以客观证立的义务。这种义务要求算法应用者一方面要论证其决定与道德规范相符合,另一方面要求其论证该道德规范可以在利益相关者之间获得客观证立。
其次,算法论证程序所追求的是一种相对合理性而非绝对合理性。在哈贝马斯所提出的理想商谈情境中,人们通过特定程序所达成的共识是一种绝对正确的共识,其绝对性特征体现为每个实践问题依照特定程序都存在唯一正确的答案。但这种理想商谈并不具有实践中所必需的决断能力。因为现实中的商谈受到了规则相对性、满足程度相对性、参与者相对性和期限相对性的限制,如关于算法应用的商谈要求有限的利益相关者,必须在有限的期限内以有限的程序规则做出大家相对满意的算法应用决定,这些商谈的现实性必然导致了商谈结果的相对性。因此,算法论证程序不同于那些在任何场景下追求唯一正确算法应用决定的确定主义观点,依据算法论证程序得到的算法应用决定是相对客观正确的。这句话背后蕴含着一个批判的维度,即任何算法应用者对其算法应用决定的合理性主张不仅包括了该决定是客观正确的主张,还包含了该决定接受批判和进一步证立的主张。后一个主张表明了该算法应用决定需要在未来进行各种意义上的批判和进一步理性化。
2. 尊重技术中立性并引领技术向善的算法论证程序
在二战后,美国的许多学者与议员对科技发展与公民福利之间的关系进行了讨论。当时的学者们普遍认为,科技的发展是公共福利之必需,而政府严重低估了科技研究的价值,导致政府拨款不足且缺乏协调统一的中央资助机构,出于保障公民的福利,政府有义务以各种方式引领科技发展。然而,对于政府该如何引领科技发展却有存在着争论。参议员基尔戈尔认为,科技的发展应当由公民的需求来引领,即建立一个由普通公民、劳工领袖、教育家和科学家共同组成的委员会统一管理本国科技的发展规划与拨款预算,而科学政策家范内瓦·布什却论证了科技发展引领与公共政治讨论相隔离的必要性,并主张由专业人员来驱动和规划。上文早已论述的“技术中立性”概念便是由此延伸而来,其蕴含了对科技自身发展规律的尊重,即“科学家们应当在一种相对没有成规、偏见或商业需求等不利压力的氛围下展开工作”。
3. 兼容多元价值的算法论证程序
与在技术研发阶段,人们对算法有着准确性、健壮性、可解释性等统一一致的价值追求所不同的是,在算法论证程序所聚焦的第四层秩序——人机共同决策影响下的行为秩序中,人们存在着多种不同的信仰与世界观,虽都称追求“善”,但对其理解却各有不同。而如何让算法在应用阶段兼容人们的多种价值观已经成为了当代人工智能产业落地的重要议题。例如,在目前产业化进程最快的自动驾驶领域中,选择什么样的车辆制动算法最能符合人们道德要求已成为了自动驾驶车辆产商最关心的问题。麻省理工学院媒体实验室(the MIT of Media Lab)曾为此开展了一场全球线上实验,试图找到一个符合全球价值观的车辆制动道德规则。他们开发了一个模拟自动驾驶道德困境场景的调查平台,以此来征集全球网民在交通事故场景下的道德选择。该调查平台预设了十三个无法避免的交通事故场景,要求被调查者依照其自身价值观在两种车辆制动方案中选择一种,以此保护其认为应优先保护的特定人群,如富人、女性、老人等。然而,该平台通过 18 个月收集的来自 233 个国家和地区的近 4000 万份调查却无法得出一个符合全球价值观的车辆制动方案,反而验证了全球文化差异所导致的价值多元。
| 算法论证程序对法律规制算法的意义 |
在明确了算法论证程序的概念及其基本特性后,本文将在其视角下重新阐述算法权力、算法黑箱及算法歧视的法律规制问题,以此进一步明确当下提出算法论证程序对法律规制算法研究的意义。
(一)算法权力的规制重述
算法权力,源于算法在辅助甚至替代人类决策的过程中直接对人们行为产生的规范性影响,这点在学界已达成共识。而法律对算法权力的规制并非是要完全消除它,而是为了限制算法权力在行使过程中的恣意性,即避免算法在将特定设计者或特定数据集内的数据处理逻辑规则作为对人们行为产生规范性影响的决策规则时的任意妄为。对此,现有研究因过于侧重算法权力的实体性分析,妄图直接通过规制算法内的数据处理逻辑规则来达到规制算法权力的目的,导致了上文所述的数据权属与算法公开纷争,并引发了过于依赖技术改善和寻找正义算法的技术主义倾向。因此,本文将基于算法与法律的功能相似性,借鉴法律程序对法律权力的恣意限制方式,从程序视角思考算法权力的恣意限制问题,并由此分析算法论证程序的提出对规制算法权力的意义。
正如上文所述,在功能层面上,算法与法律均是管理特定操作并追求一般性、体系性与完备性的规则系统。在法律规则系统的演化过程中,法律程序通过分化和独立来限制了法律权力的恣意。具体来说,法律规则系统内部不断基于法律程序而分化为两个及以上各自具有特殊意义且需要独立地实现各自价值目标的组织或角色,如立法机构与司法机构基于法律程序的分化与独立,司法机构中当事人、法官、陪审团基于法律程序的分化与独立。所以,法律程序对算法权力中的恣意限制也可以从算法规则系统的分化和独立出发。如下图所述,法律权力和算法权力在作为规则系统的运作框架里可以体现在两个由不同组织或角色追求不同价值的决策过程中。
(二)算法黑箱的规制重述
如上文所述,对于算法黑箱问题,在追求算法公开和技术透明的规制思路被普遍批判为不符合现实规律后,现有的法学研究借鉴“算法可解释性”这一技术指标,衍生出了“算法解释权”的规制思路。然而,由于法律规制的“算法”与技术研发所关注的“算法”并不相同,前者着重于算法应用阶段的人机协同决策,后者则是指算法研发阶段的数据处理逻辑,因此,在法律规制层面简单地借用技术研发阶段的“算法解释”概念容易引起混乱与误用。在此,本文将重新阐述算法系统与法律系统所共同面对的黑箱问题根源,并基于法律论证程序解决司法决策黑箱的路径,分析算法论证程序是如何应对算法的黑箱问题,以及阐明算法论证程序与算法可解释性之间的关联。
(三)算法歧视的规制重述
根据上文所述,算法歧视问题的根源在于算法的社会应用决策,当算法作为实验数据的逻辑处理规则时,人们并不会将其认定为一种应当否定的“歧视”。例如,对于处理人脸数据的算法而言,许多研究者会利用其探究人脸数据差异和政治偏好之间的关联,以及人脸数据差异和社会阶层的关联,这些研究中的算法并不会被认为存在歧视,而是一种对当下社会状况进行客观描述的科研尝试。在此,本文将从算法歧视的定义、起因及规制方式来讨论聚焦于社会应用阶段的算法论证程序对法律规制算法歧视的意义。
| 结论 |
算法论证程序(Algorithmic Argumentation Procedure)是指,算法应用主体按照特定标准和条件整理利益相关方通过一定顺序、方式和步骤得出的意见后,对其算法应用的决定(即选择某项数据处理或代码构建的逻辑规则作为决策规则嵌入到特定社会领域)做出可使利益相关方理解与认可的沟通过程。在我国对算法的法律规制研究陷入因混淆算法研发与算法应用、重实体而轻程序导致的无尽纷争下,算法论证程序的提出有利于为算法的法律规制研究提供一条切实可行且凸显法学人文价值的发展路径。其摆脱了完全依赖技术革新实现社会基本价值的技术主义幻想,将视角重新聚焦于利益相关群体之间的沟通过程之中。这一方面有利于为算法的科技研发开辟自由发展的空间,另一方面强调了算法应用决策的民主性。同时,算法论证程序的提出更为法学研究者基于法律与算法的功能相似性进行比较研究提供了思路。其不但响应了莱斯格提出“代码即法律”的比较研究号角,更是为法律论证理在法律规则算法研究方面的应用指明了推进方向。算法论证程序概念的提出象征着,法律在社会不断嵌入算法的数字化转型过程中,将会通过构建民主对话空间,实现算法应用决策的可比较与可沟通,让多元价值的利益相关者提出意见并竞争,进而促进数字社会的相互理解和相互信任。
原文刊载于《中国政法大学学报》2023年第1期,感谢公众号“中国政法大学学报”授权转载!
网站编辑:康煜
审读:季卫东