当前位置:首页 > 文献资源 > 研究报告
文献资源
衣俊霖|数字孪生时代的法律与问责 ——通过技术标准透视算法黑箱
2021年08月16日 【作者】衣俊霖 预览:

【作者】衣俊霖

【内容提要】

摘要:我国的数字化转型正进入数字孪生时代,现实世界与虚拟世界出现“虚实相生”甚至“以虚运实”的趋势。在数字孪生系统的分层体系下,通过算法黑箱将模型和数据封装于交互界面之后是一种常见的工程模式,在化简技术复杂性的同时也导致“规则隔音”现象日益严重。决策规则的隐而不显致使事后法律问责难以奏效,而追求算法透明的披露手段在与技术复杂性和商业秘密的冲突中不断妥协,逐渐成为强弩之末。实际上,无论事前规制还是事后问责都需要以法律系统与算法系统的良性互动为前提。借助技术标准的场景性、灵活性、技术性等优势,可以制定信息交换的结构性元规则促进算法与法律的跨系统沟通。此外,应当通过算法标准自我声明机制推动软法的“硬化”,规范算法贴标逐渐消灭“无标生产”,构建软法硬法混合算法规制模式。


关键词:数字化转型 数字孪生 算法黑箱 结果问责 算法透明 技术标准



数字孪生无疑是时下最受追捧的新技术概念之一,不仅成为与人工智能、物联网、大数据并列的科技弄潮儿,而且已悄然进入各国的国家战略。以我国为例,国家发改委20204月把数字孪生列为数字化转型的支撑性基础设施和技术创新赋能的关键对象;政府2021年新鲜出炉的十四五规划纲要也把建设数字孪生城市作为数字化转型的重要突破口。地方层面,从上海市选取百年建筑南京大楼试点数字孪生最小治理单元,到雄安新区打造全球首个数字孪生城市的一张蓝图,乃至贵州省将数字孪生入驻其赖以成名的大数据数谷,数字孪生可谓一时风头无限。若把目光投向海外,日本在制造领域的数字孪生战略规划、新加坡的虚拟新加坡项目以及英国发布的国家数字孪生体原则等顶层设计让人们看到了数字孪生在国际上的巨大前景。

数字孪生并非单指某一特定技术,而是一个对人工智能、大数据、物联网、虚拟现实等技术进行综合运用的技术框架。数字孪生的走红既源于人们对新技术的好奇心,也因为它与人们对于数字社会、数字化治理的想象颇为契合。当前,数字中国的建设已经步入数字孪生时代,数字空间正在实现对现实空间的复制甚至超越。数字孪生视野下,智慧交通、智慧城市、智慧法院等项目把大量决策移至数字空间中,并反过来影响着人们现实生活中的行动。例如,防疫健康码APP便是数字孪生时代的一个典型应用,体现着虚实相生以虚运实的特征。一方面,移动设备作为物联网的边缘节点采集个人的健康和行程信息,将现实世界中的行动轨迹和健康状况在数字世界予以重建并实时更新;另一方面,算法模型基于防疫规则和大数据信息判断风险等级,并以红绿灯式界面管理着人们的出行,数字世界的运行结果反过来控制和影响着现实世界。

在技术狂飙突进的年代,物联网、人工智能、5G甚至6G等新概念你方唱罢我登场,但都能纳入数字孪生的理论模型和体系架构之内。因此,研究数字孪生视野下的法律和问责既有其特殊性,同时对普遍意义上的技术规制问题亦有所裨益。笔者聚焦数字孪生的核心问题——算法规制——特别是近年来颇受重视的算法黑箱,重新解读其背后的技术复杂性和法律困境,试图超越打开黑箱和避让黑箱的二元思维,运用技术标准建立法律与算法之间的沟通机制,加强作为法治基石的问责机制,构建软法硬法混合治理的算法规制模式。


一、数字孪生中的算法及其规制

 

得益于物联网、大数据和云计算等底层支撑性技术的日益成熟,数字孪生的概念和技术架构得到广泛关注。但平心而论,数字孪生的雏形早已有之,最经典的案例当属阿波罗13号登月飞船在1970年惊心动魄的故障事件。发射两天后,氧气罐突然爆炸导致船体严重毁损,此时事前制造的15个登月飞船的孪生设备派上了用场。飞船数据经由彼时最先进的通信技术传向地面的电脑环境中,工程师得以分析处理远在33万公里外的飞船工作状态。地面小组经过复杂的仿真推演,制定出紧急操作步骤,协助宇航员在将飞船稳定至返回轨道,奇迹般回到了地球。

与今天相比,五十多年前的数据通信和存储能力都极为有限,也没有AI算法辅助决策,主要靠地面人员对着实体控制台手动仿真。尽管如此,数字孪生的基本概念和系统架构已初现端倪。

(一)数字孪生的基本概念

尽管早期实践可追溯到阿波罗登月计划,但数字孪生作为理论模型被提出的时间一般被定格在2003年:美国密歇根大学教授迈克尔·格里夫在产品周期管理的课程上提出了“与物理产品等价的虚拟数字化表达”的概念,旨在对设备的信息和数据进行更清晰地表达,并在整合所有信息后进行更高层次的分析。该模型包含的基本要素——物理空间、虚拟空间及两者之间的信息流动——被视为数字孪生体的核心内容。2011年,美国空军研究实验室在制定远景规划时吸纳了数字孪生的概念并提出了“机体数字孪生体”作为正在制造和维护的机体的超写实模型,并于同年推出“设计工作室”推动军用数字孪生技术商用化的初步探索。2017年,知名咨询机构Gartner将数字孪生列入十大战略技术趋势。随着在研究机构、企业、军界的曝光度不断提高,以及其在数字化转型中的巨大潜力,数字孪生进入各国国家战略。上下游相关行业争相与数字孪生挂钩。

由于数字孪生是近年来的“新风口”,特定技术领域的从业者往往会对概念进行“限缩解释”以凸显其技艺的独特性。研究建模和仿真技术专家认为他们所熟知的计算机辅助设计技术就是数字孪生的原型;大数据专家认为数字孪生的本质是海量数据驱动下更加精准的建模分析和预测,数字孪生系统就是数字底座;从事混合现实等可视化技术的公司则认为数字孪生是下一代可视化技术。

对法学研究而言,数字孪生宜被理解为:通过数字化的手段对现实世界中的对象在数字世界中构建对应的实体,借此来实现对现实世界的了解并以此促进决策优化。这一广义解释将数字孪生与特定技术区别开来,捕捉到该理论模型的关键,即现实系统与虚拟系统的共在性以及两者之间的孪生(或者说镜像)关系。数字孪生属于一个“解释性概念”,其含义有待人们在生活中予以建构。对于数字孪生这一演变中的新事物不妨采取一种抽象、宽松的扩张解释,一方面避免陷入无谓的技术概念之争,另一方面有利于扩大法学研究的适用范围。总之,数字孪生本身并不是某一特定技术,而是对其他如人工智能、物联网、大数据等技术进行集成的体系框架。

(二)结构层次化与算法黑箱化

 

1.界面、数据、模型的三层结构

数字孪生的内涵及关联技术在大众传播过程中势必不断变迁,但是从系统架构的角度对数字孪生相关技术进行划分,可以为法律人提供一个稳定的分析框架。数字孪生技术的体系结构由界面、数据、模型三个层次构成(见表1)。

1 数字孪生的体系架构

界面层和数据层宛如数字孪生系统的皮肤和血肉,而算法所在的模型层给它注入了灵魂。首先,界面层是数字世界与现实世界接壤之处,实现数据收集、信息展示、指令控制的功能。其次,数据层实现了意义建构的功能并作为模型层的输入和输出。数据分析、清洗、处理、存储等操作大多发生在数据层;现实中的人、事、物在数据的维度上被细致入微地重建。最后,模型层实现建模和决策,借助专家系统、人工智能、最优化等技术进行建模优化,发挥着统筹决策的功能。

当然,界面、数据和模型的三层体系是对数字孪生系统架构的一种概括和简化。在具体运作过程中,系统层次之间往往是互渗入的,例如神经网络模型中的数据层和模型层紧密耦合在一起,因此有时难以找到层次间的绝对的边界。此外,也有学者基于对技术进一步细分的目的提出了数字孪生的五要素(传感器、数据、集成、分析和促动器)、五维结构(物理层、数据层、模型层、功能层和能力层)等分类方法,但基本上都可被前述三层体系所涵摄。因此,对法学研究而言,数字孪生的三层体系架构已经足够,既为深度学习、知识图谱、5G、物联网等新技术提供了清晰的定位,又可以覆盖智慧医疗、自动驾驶、数字政务、智慧司法等众多应用场景。

2.算法规制与算法黑箱化

算法规制是数字孪生时代的重要法律问题。从数字孪生的体系架构来看,模型层和数据层正是数字空间的核心区域,大致对应到算法规制和数据治理。数据治理无疑是近年来的一个热点。毕竟,现实世界转化到数字世界的过程中必定有一个数据化的过程,因此数据层理所当然地引起了人们的注意。此外,数据与隐私权这一颇为成熟的法律概念相关,加之近年来频发的信息泄露事件更促进了立法的发展,相关法律体系已颇具雏形。相比之下,对于日益嵌入生活多方面的算法,目前仍没有一个明确的法律规制方案。实际上,尽管数据治理和算法规制被划定为两个细分研究领域,但两者密不可分。数据治理的规则如果要穿透界面层深入数字孪生体的核心区域,势必依靠算法在底层逻辑上予以支撑。因此,数字孪生时代的算法规制具有基础性的重要价值。

算法规制是技术与法律的双重变奏。算法是用代码编写出的思想,是工程师发出的一系列指令,“告诉计算机该做什么”。算法不等于代码但却又同代码密不可分。如同语言和文化会影响人们的思维一样,程序语言及工具库的特性影响着算法的设计方式。完全剥离代码,把算法理解为一种抽象意义上的规则可能会忽略关键性细节。算法规制的难点在于如何避免陷入技术泥潭同时,又不至于对代码的运作逻辑过度简化。

数字孪生时代算法规制不能逃避的首要问题就是算法的黑箱化。界面、数据、模型的三层架构形成了一种天然的算法黑箱。数据和模型在黑箱内部,黑箱的边界是交互界面,在物理世界和数字世界之间形成一道天然的隔阂。人们大致知晓健康码的计算规则与所处地区的风险水平、人员接触情况等信息有关,但具体的计算公式和参数权重是看不到的。除非穿透界面层,否则无法知晓黑箱内部的运作情况。


二、黑箱中的代码“封装”与规则“隔音”

在数字孪生时代,现实世界在数字世界里被重建,随后数据驱动算法作出决策并借助界面层把指令传递到现实世界中。让人焦虑的是,数字空间的运作逻辑——算法是不透明的。黑箱便是关于“不透明”的一个比喻:人们把影响自身权利义务的决策交给了算法,却又无法理解黑箱内的逻辑或其决策机制。弗兰克·帕斯奎尔在《黑箱社会》中将这一隐喻发挥得淋漓尽致,抨击了美国社会正陷入被金融和科技行业的秘密算法所操控的、令人难以理解的状态。算法黑箱往往与“算法独裁”“算法垄断”等负面评价绑定在一起,未来呈现出一幅颇为暗淡的图景:人类在现实世界中的主体地位开始被架空,算法作为数字世界的主宰正从黑箱中伸出无形之手,控制着人们的生活。

当然,把算法黑箱等同于“暗箱操作”或极度复杂、无法理解的代码系统,都有失偏颇。算法黑箱本质上是一种可以减少技术复杂性的封装手段,但同时也带来了法律风险问题。

(一)代码封装与通信系统的复杂性化简

在软件工程领域,黑箱与“封装”的概念是紧密联系在一起的,意味着存在着内外有别的边界。借用前文关于数字孪生系统架构中的三层框架,模型和数据隐藏于界面之后,因而对外部用户就形成一个算法黑箱。作为一种把技术细节隐藏起来的工程实践,算法黑箱在生活中可谓无处不在。以浏览网页的过程为例,用户输入网址后,浏览器与远程服务器建立连接并接收后者返回的网页HTML代码,渲染成最终的页面。用户与网站交互的界面就是浏览器,至于数据传输、服务器运算逻辑、网页代码如何呈现等过程都封装在黑盒里。正是由于后台的技术复杂性被隐藏起来,网上冲浪才得以普及化。此外,算法黑箱在复杂决策系统中也非常普遍。以智慧城市交通为例,借助对路况、车况、行人的历史及实时信息进行大数据分析,后台的智能算法分析出各路口的最佳调控方案,远程对红绿灯下达指令来指引司机和行人的行动。公众只能看到红绿灯闪烁却并不知道智能算法如何作出决策,甚至不清楚到底是算法在控制还是值班警察手动操作。在红绿灯界面后,交通大数据和调度算法被封装起来。如此一来,司机和行人所需处理的复杂性得到化简,只需关注交通灯和脚下的路。

以上分析表明,算法黑箱并不是复杂性的结果,而是减少复杂性的手段。从技术系统的视角来看,算法黑箱形成了一个稳定、简洁的界面帮助人们建立对算法系统的稳定预期,使公众不必被现代社会日益增加的复杂性所困扰。因此,在数字孪生时代,算法黑箱所代表的封装模式广泛应用于物联网、信息通信、移动APP等诸多领域,推动着信息在现实世界与数字世界之间的双向流通。此外,算法黑箱为保护个人隐私、商业秘密、知识产权提供了天然屏障。在不公开个人隐私的情况下将决策付诸实践,可以避免公开评议对弱势群体造成心理伤害。另外,软件研发前期投入大,使模型和数据对外不可见保护了智力劳动的成果。

(二)规则隔音的法律风险

数字孪生时代,政府和企业都大量使用算法进行自动化决策,而其中公权力机关使用算法黑箱导致的决策不透明更易受人诟病。美国法学家迈尔·丹科亨曾经通过一个“规则隔音”的思维实验介绍了两种规则的分离。设想把政府公职人员和治下的一般公众分为两个独立的群体,并分别被置于满足“声音隔离”条件的密闭空间中,双方无法知晓对方获悉的讯息。法律由两套信息构成,第一套信息发送到公众的空间,提供对生活进行引导的“行为规则”;第二套信息发送到公职人员所在的空间,提供进行决策、判断的“决策规则”。指引公众行为的外部规则一般明确、严格,而公职人员在司法和执法过程中所用的决策规则相对灵活变通。如果两套规则能够互不干扰,那就能根据各自的目标和受众进行调整,并且把两种规则间的价值冲突化解于不同的场域中。

在数字孪生时代来临前,规则隔音的客观条件尚不成熟。一方面,公务人员和普通民众生活在同一个空间里,并没有“不透音”的墙;另一方面,采用清晰、易懂的语言将规则公之于众,是规则之治的内在要求,“规则如果无人懂,守法如何行得通”?因此决策规则常常予以公开来引导公众自觉遵守,从而减少执法成本。然而,在数字孪生视野下,以大数据、云计算为代表的新技术为算法自动决策提供了充足的数据和算力,降低了大规模、标准化地适用决策规则的成本。因此,披露决策规则以降低执法成本的诱因被大大削弱,规则隔音变得普遍——行为规则通过界面层对公众可见,而决策规则隐藏在算法黑箱中。更令人忧虑的是,不仅仅是公职人员与公众存在规则隔音,甚至公职人员对决策规则的真实情况也不甚清楚。以美国为例,由于算法错误导致公民权利受损的事件屡见不鲜。伊利诺伊州儿童和家庭服务部在2017年12月停用了一个儿童安全和风险评估系统,原因是该预测算法的不准确性导致父母与子女被错误分离的情况;又如,2007年科罗拉多州的公共福利系统以及2016年阿肯色州医保系统中的代码错误,造成对部分公民的福利申请被错误削减或驳回。需要指出的是,尽管规则隔音存在严重的法律风险,但完全消除规则隔音则可能导致钻规则空子的情况,进而降低社会治理的质效。例如,如果披露电子眼算法对违停的容忍权重(例如10分钟不处罚、20分钟不扣分等),有可能导致更肆无忌惮的违停现象,使得修改权重的决策更易遭到批评。绝对的透明无疑大大压缩了权力恣意的空间,但极大提高了规则变动的成本进而可能导致决策瘫痪。

数字孪生时代,算法的黑箱化趋势日益明显。通过简单直接的界面就足以给公众提供规则的指引,因此决策规则的隐蔽性更强,从而埋下了权力恣意的种子。在政府方面,规则隔音威胁着法律的内在道德性,特别是公开性和清晰性的要求。对于企业所使用的算法而言,也存在类似的规则隔音现象使得问责机制难以奏效。特别是当复杂的算法适用于商业决策时,决策者实际上把算法作为决策的依据,这时或多或少转嫁了决策责任。将决策规则封装起来,隐藏了因果关系或者至少导致因果关系复杂化,这就使得作为法治基石的问责机制有可能逐渐分崩离析。


三、事后问责与事前规制的两难处境

对算法黑箱的技术本质和法律风险作出阐释后,可在此基础上对现有的规制路径进行评析。若以损害结果发生为界限,算法规制的策略可以划分为两大类:一是基于结果主义的事后问责;二是强调过程控制的事前规制。算法问责和算法透明分别是这两种进路的主要代表,在平衡技术复杂性与法律复杂性的问题上采取不同的倾向。算法问责进路试图与算法保持一段距离,把目光聚焦到以侵权法为代表的归责理论研究上,减少事前对算法运作逻辑的关注从而规避打开黑箱可能遇到的技术复杂性问题。算法透明进路则强调对算法的穿透式监管,尽可能捋顺隐藏在黑箱中的决策规则和因果关系,从而减少算法造成的法律复杂性。

 

(一)基于结果主义的算法问责

1.事后问责试图回避技术复杂性

结果主义的算法问责认为,算法系统具有高度复杂性因而难以确切知晓黑箱的内部逻辑,所以应忽略算法黑箱的技术细节,在损害发生后进行事后问责。现代软件工程中的算法可能由成百上千的工程师协作完成,代码冗长而复杂;对于数据依赖性较强的机器学习算法,即便算法设计者以及工程师也无法依据代码来准确预测系统的行为。打开算法黑箱的过程中可能在技术泥潭里越陷越深,这既不是法律人的专长同时也显得没有必要。通过将算法造成的后果与具体责任主体连接起来,就不必被无关宏旨的技术细节所困扰,回到更加熟悉的归责机制上去。

基于这种思路,在损害发生后再介入问责看起来能颇为有效地解决算法黑箱的问题,避免了在技术细节中迷失。不可否认,结果问责的视角具有积极意义,可以帮助破除一些所谓的算法黑箱的障眼法。例如,2020年9月《人物》杂志一篇《外卖骑手,困在系统里》的文章引起了社会广泛关注,记者通过“春秋笔法”把矛头指向算法系统,但法律人显然不应被企业的“算法新衣”所迷惑。无论外卖派送系统的算法技术是多么复杂,这在法律上无关紧要,讨论平台在保障外卖骑手权益方面的责任才是关键所在。事实上,事关重要的算法大多由公权力机关或平台企业在操作,因此要找到为损害后果买单的责任人应该不难。

此外,从成本—收益的视角来看,相比算法透明试图在算法风险成为切实危险之前对其进行规制,事后问责的法律成本更小并且收效更有保障。当算法尚未损害当事人权益时推定其为合法,无需对算法的研制进行过多限制,进而规避了与个人隐私、商业秘密、国家机密等法益的潜在冲突,极大地减少了由于未雨绸缪的事前规制而导致防范成本过高。

2.黑箱的法律复杂性导致问责失效

不难发现,结果问责进路的背后是对算法黑箱的一种微妙态度——尽管对黑箱的技术细节难以理解,但算法造成的法律后果是显而易见的。算法的内部逻辑可能极端复杂,但是在法律意义上是简单的。或者说,技术黑箱不等于法律黑箱。但是,结果问责进路对算法黑箱的认知存在过度简化之嫌。随着深度学习等机器算法的大规模使用以及算法系统相互之间的互动愈加频繁,无论是算法内部的因果关系还是系统间的因果关系都变得复杂。特别是当人工智能用于辅助决策时,决策者实际上把算法作为决策的依据,这时决策责任变得模糊。如果需要问责,算法黑箱无法显示因果关系或者至少导致因果关系复杂化,则会妨碍问责。代码封装与规则隔音的相互叠加,很可能使算法黑箱成为“规则黑箱”,进而演变为“责任黑箱”。

不妨从“损害结果”和“责任主体”的两个维度入手,对算法黑箱的法律复杂性进行分类从而说明结果问责的局限性。表2从损害和责任两个维度把算法黑箱划分为四类,从第一类黑箱到第四类黑箱的法律复杂性不断提高,事后问责的局限性也逐步显现。

2 损害与问责视角下的四类算法黑箱

结果主义的问责机制能够奏效的前提是,用户能明确知晓是否受到算法的侵害,而且法律上也能找到明确的责任主体。这一假设在“第一类黑箱”的简单情形下是成立的,结果问责处理这类情况比较得心应手。例如,P2P技术究竟是所谓的中心模式还是去中心模式,不影响对侵犯知识产权的判断;波音737Max空难事件中波音公司的责任也是一目了然;又如,深度伪造的技术细节在探讨肖像权侵犯的意义上也无关紧要。因此,在应对法律复杂性最低的第一类黑箱时,事后问责颇为有效。但是,在其他三类黑箱的情况下,算法问责开始显得捉襟见肘。

第二类黑箱,损害结果可知但责任问题开始出现争议。典型代表是自动驾驶相关的侵害事件和难以查明根源的个人信息泄露事件。以2016年与特斯拉相关的“全国首例自动驾驶致死案”为例,该案已被拖入漫长的诉讼过程中,特斯拉厂商的责任问题至今未有定论。实际上,不仅仅在中国,世界范围内对自动驾驶的责任判断都是一个难题。当然,通过强制保险、补偿基金等方式对风险成本进行再分配,似乎可以淡化责任认定的难题。然而,在涉及保险代位求偿、惩罚性赔偿等问题上仍不能绕开责任认定。更重要的是,赔钱了事的策略并不会让交通出行更安全,就好比最好别让猴子开车上路,即便它的主人承诺投保很多钱。

第三类黑箱,责任主体容易判断但损害的发生不易察觉。无论是政府使用儿童安全和风险评估算法导致父母与子女被错误分离,还是福利分配系统错误拒绝合理的救济申请,由于决策规则被隐藏在黑箱之中,当事人往往无从知晓算法错误正在损害自身权益,仍误以为是政府在行使法律赋予的自由裁量权。尽管这些情况最终被察觉后,政府部门的责任是无可推卸的,但公众难以确知究竟有多少侵害合法权益的情形正在发生,这不得不令人忧心忡忡。

第四类黑箱的情况变得更加扑朔迷离。一方面算法的损害结果极为隐蔽;另一方面责任的归属也变得含糊。这在人与算法以及算法与算法间协同运作时最容易发生。以人机协作为例,在卢米斯案中COMPAS量刑系统被嵌入美国的司法审判过程,审判结果是软件的算法黑箱和法官的大脑黑箱共同作用之下形成的。算法是否侵害了卢米斯的权益是模糊的,同时也难以分清量刑算法具体的责任比例。此外,通过算法定价、高频交易等技术,算法间的共谋或对抗已经深入经济系统和金融系统中,在市场波动的外衣下,人的因素和算法的因素相互叠加、反馈,进而引发系统性风险。这种情况下,往往也没有单一主体能负得起责任,最终只能由国家和社会兜底承担。

通过以上对四类黑箱的分析可知,对算法黑箱的法律复杂性不能等闲视之。算法黑箱可能使损害结果非常隐蔽,规则封装使得责任判断的复杂度陡增,进而造成结果问责的失效。因此,仅凭结果问责无法打消人们对算法失控的疑虑。

(二)强调过程规制的算法透明

算法透明经常被视为解决算法黑箱问题最直接、有效的方式,并与知情权、行政公开、透明政府等概念具有亲和性。通过对算法黑箱的信息进行披露可以缓解公众与算法操控者(以政府和平台企业为最)之间的信息不均衡,抑制权力的恣意。主张算法透明的学者很少把代码公开作为唯一策略,而是把参数权重和公式的披露,甚至理由解释、结果告知、影响评估等内容也囊括在内。这种扩张解释的策略无疑增加了算法透明原则在面对批判时的回旋余地,但也使得算法透明看起来像是对一组关系松散的信息披露手段的“打包式”总称。为了便于阐释,不妨把算法透明所要求披露的算法信息分为两类:一是代码、公式、参数等内部信息,二是理由解释,结果告知等外部信息。

1.披露内部逻辑的可行性困境

“原旨主义”的算法透明即强调代码层面的透明。莱斯格有关“代码即法律”的著名论断强调,代码在数字空间里发挥与法律相似甚至更强的规制功能;代码应当公开,如同法治精神要求法律应当公开一样。代码层面的算法透明最显而易见的阻力来自商业秘密,此外其他负面影响还包括增加公众的认知负担、侵犯国家机密等。目前,缺乏源代码披露的成功先例可资借鉴。有关代码披露的一个著名事例发生于2016年,纽约市议会成员詹姆斯·瓦卡提出立法议案,要求市政府机构在进行福利分配、治安处罚等行政行为时,若使用了算法辅助决策则须公布源代码。这一尝试终因来自企业方的压力而变得虎头蛇尾,代码披露的强制要求蜕变为无约束力的倡议。

既然代码披露过于激进,退而求其次便容易想到公式以及参数权重的披露。这看起来是比较温和的要求,比披露成千上万行代码更精简而且对于非专业人士也更具吸引力。但是,公式、参数的披露面临三方面的问题。其一,公式和参数的披露并不能完全绕过商业秘密、国家机密的保护区。其二,稍具复杂性的算法大多无法被简单化约为公式或参数权重,特别是在使用深度学习、神经网络等模型时,如何对模型行为进行解释是一个尚未攻克的技术难题。其三,即便把算法的逻辑用参数或公式进行概括,这种披露方法的有效性是存疑的。从参数或公式到代码之间仍然有一层“转译”,因而难以在代码层面验证算法的正确性。例如投票、抽签等类似罗尔斯所说的“纯粹程序公正”的情况,这类算法的规则简单,公式或权重信息都非常直白,但结果的公正性完全取决于程序在代码层面的运作过程。

实际上,在算法自动化被大量使用之前,披露内部逻辑面临的复杂性困境就已经客观存在。以金融监管领域为例,披露与掩盖之间的关系可谓道高一尺魔高一丈。政府经常要求金融机构使用简明清晰的语言向消费者披露信息,但金融机构仍有大量方法实施混淆从而将信息掩埋在噪声中。在数字孪生的分层系统结构中,海量数据、业务逻辑以及技术细节交织在一起共同被封装在交互界面层背后,使得内部逻辑更易被隐藏在复杂性的迷宫之中。

2.披露外部理由的有效性疑问

在回应批判的过程中,算法透明的内涵开始不断扩张而成为一个多层次的概念。在所有算法透明的各项要求中,“外部解释”(或“反事实解释”)的方案也许是形式上最弱的要求,可视之为披露外部信息的典型。例如,如果贷款申请人被算法告知:“贷款被拒绝是由于您的年收入只有X,如果您的收入是Y您的申请可能就成功了。”需要指出,算法透明的初衷是解决算法黑箱的不透明问题,将外部解释放在算法透明的名下已经非常勉强。外部解释的目的并非剖析算法的运作机理进而对其正确性、公正性提出挑战,而是将算法决策预设为合理的,只是确保人们了解“游戏规则”以便能更好地采取行动,使得受决策影响的人能规避不利后果。外部解释确实可以绕开商业秘密的雷区,但同时意味着穿透性太弱。在需要理解系统的决策逻辑并对算法决策的合理性、公平性进行检视时,外部解释明显有隔靴搔痒之嫌。

此外,外部解释是否构成一种独立的权利或价值仍是存疑的。在没有具体法益损害时单独设立获取理由解释的请求权的性价比不高,从司法资源利用的角度似乎不宜单独作为一项诉权。以行政处罚中的告知义务为例,无论算法是否介入,政府均应对行政处罚作出说明,此时的算法解释权证成源自行政法规而非泛泛地获取外部解释的权利。因此,外部解释的一般性法律规定容易成为形式性的倡导,似乎更适合被吸纳进“为民服务”“顾客至上”等理念中,难以成为具有独立价值的规范性要求。

3.算法透明原则内部的价值冲突

除了面临可行性、有效性的外部质疑之外,算法透明原则还面临着自身内部的困境——相关规制手段之间存在价值取向的冲突,难以形成一套融贯、自洽的规则体系。由于算法透明通常被视为一项法律原则,而非全有或全无的法律规则,因此对披露源码、外部理由等特定规则进行批判似乎无法驳倒该原则整体上的可欲性。毕竟,原则较之规则更为抽象、宽泛,许多项规则可被归入同一个原则之下。但是,原则作为一种最优化指令,需在可能的范围内以尽可能高的程度予以实现。这意味着,一项法律原则的内部组成部分之间至少应形成相互支撑的意义之网,清楚地指向某种目标、权利或价值,才谈得上与其他冲突性的原则进行平衡之后加以适用。

在究竟是披露内部信息还是外部信息的问题上,算法透明原则的内部存在着价值冲突。披露内部信息是为了对黑箱中的内部逻辑进行穿透性监督,披露外部信息则仅仅要求对用户应如何行为加以引导。借用前文的规则隔音理论,“内部信息—外部信息”大致对应“决策规则—行为规则”的区分。披露黑箱内部信息就是拒绝规则隔音,强制要求对决策规则进行公开;相反地,披露外部信息则默许规则隔音,仅仅强调对行为规则的公开。披露内部信息和披露外部信息的目的和价值取向截然不同,前者挑战决策逻辑的合理性,后者则仅要求对用户行为提供指引。

由于内部信息和外部信息在目标和价值上的冲突,无论使用“或”还是“并”的逻辑操作将两者组合起来,都难以妥善解决。一方面,如果内部信息和外部信息二者择一披露即可,这便是把两组在目标和价值取向上有冲突的规制策略生硬拼凑在一起,在实践缺乏一以贯之的标准。另一方面,如果对内部信息和外部信息全部加以披露——这无疑是一种相当激进的主张——那么来自商业秘密、国家机密、知识产权方面的批判又全都回来了,算法透明在实践中将寸步难行。

总结来说,算法透明的初衷是打开算法黑箱来披露隐藏其中的内部逻辑,因而获取内部信息是关键所在。但是,在与其他例如商业秘密、国家机密等法益的冲突中,算法透明原则难以成为压倒性的“王牌”,因而逐渐妥协,开始向披露黑箱外部信息退却。由于在披露内部信息还是外部信息之间举棋不定,算法透明本身的内容反而如堕入云雾般不透明。


四、法律系统与算法系统之间的沟通机制

对算法黑箱展开事前规制或事后问责所遇到的困境,根源在于法律系统与算法系统之间沟通不畅。规制算法黑箱的关键,是保持算法运作封闭性同时促成其与法律系统的相互沟通。从社会系统论的角度来说,功能系统彼此之间互为外部环境,无法直接相互影响。借用卢曼关于“扰动-信息”的经典区分,对于一个特定的系统而言,它无法对外部环境发生的扰动作出反应,除非该扰动以某种方式被转译为系统所能理解的内部信息。这便是系统运作“封闭性”与认知“开放性”的统一。算法作为一个独立功能系统,将技术细节封装于黑箱之中无疑是系统运作封闭性的体现。然而,如果对黑箱听之任之,极易造成规则隔音进而形成责任盲区,导致事后问责无从谈起。另外,将模糊法律系统与算法系统的边界,则会陷入技术复杂性的泥潭。实际上,算法透明原则在披露内部信息与外部信息之间的摇摆不定,就是由于法律与算法如何沟通的界限仍旧晦暗不明。

通过技术标准构建信息交换的结构性元规则,可以推动法律与算法的跨系统沟通,在此基础上其他的算法规制策略方能得到有效展开。
(一)信息交换与结构性元规则

“社会设计中的一个普遍存在的问题便是如何把握支持性结构与适应性流变之间的平衡。”建立与算法系统的沟通机制就是试图寻找法律系统和算法系统之间的半透膜结构,既不打乱系统内部的自我沟通和迭代,又能实现系统间的协作和共同进化。

沟通在于信息的形成、传达以及理解,“从话语空间的角度来考虑,要克减复杂性,就要对沟通过程中的信息进行定向选择,排除某些因素而保留另一些因素。不言而喻,正是这种定向选择会产生涵义,同时也可以增加人们对未来的预期”。通过考察在证券法中的信息披露这一颇为成熟的法律制度,可以为如何建立与算法系统的沟通机制提供启发。以《上市公司信息披露管理办法》(中国证监会第182号令,2021年5月起实施)第14条有关年度报告的信息披露范围为例,披露内容包括公司基本情况、会计和财务指标、股东总数、董监高任职情况等。不难发现,尽管有“其他事项”的条款兜底,年度报告的信息披露范围仍比较明确。上市公司的组织架构受公司法、证券法约束,虽存在双层股权结构等复杂变种,但都具有股东大会、董事会等基本要素并在议事规则上采取资本决、人头决等方式,这些法定规则使得上市公司的信息披露有一个支撑性边界。因此,尽管我国上市公司有数千家,信息披露规律有迹可循。这种将关注信息缩小到比较狭窄范围内的做法,是信息披露能够高效运作的隐性前提。

可以说,公司法、证券法关于组织结构的规定为上市公司与外部环境的沟通机制制定了一种“结构性元规则”——用来描述规则的结构、种类、信息的规则,即关于规则的规则。信息交换的结构性元规则,有助于对系统间沟通关系中的偶然性实现去随机化,从而“通过对系统应有的必然性姿态的投射和反省而把系统本身从环境区别开来,并由此形成秩序”。公司具有相似的组织架构,这为关于公司信息披露提供了一个天然的基本结构。从这个意义上说,正是有公司法和证券法为基石,为信息披露划定了具体、准确的范围,信息才不会被噪声所淹没。

那么,关于算法信息披露的结构性元规则是什么?法律与算法的支撑性边界何在?与上市公司不同,算法并没有固定的内在结构。单是神经网络算法便达数十种,更不用说与其他算法结合并根据场景定制处理后所形成的千变万化的类型。此外,机器学习模型可根据外界环境变化通过自适应学习对算法结构进行修改,随着时间不断进化。实际上,正是算法这种变动不居的结构特点使之能够对千变万化的问题域进行建模。因此,试图依赖算法的内在结构作为与算法系统沟通的结构性元规则,从而为信息披露划定清晰的边界是非常困难的。


(二)作为沟通元规则的技术标准

算法没有内在的固定结构仅仅说明缺乏现成的结构性元规则可资利用,但并不意味着无法通过自主建构的方式来制定结构性元规则。正如吉登斯所言:“结构是转换的规则和资源……结构本身在时空中不存在,结构是通过人类的能动活动而存在。”规则是系统的再生产的条件和媒介,是对行动意义的积极建构。

建立与算法系统沟通的结构性元规则需要满足场景性、技术性、灵活性等特点,刚性的硬法无法满足这种场景复杂而又灵活多变的需求。因此,应当积极探索使用软法的应用。“硬法权限明确、程序规范、形式固定、效力有保障”,但硬法存在覆盖面的局限性并且在实施中存在形式主义、灵活性不足等问题,因此“软法基于其自身特性与硬法形成了互补,充塞填满了硬法的空隙”。一般而言,与依靠国家强制力保障的硬法不同,软法的运作不依赖强制力。技术标准是一种典型的软法,由国家标准、行业标准、企业标准等构成,各类标准在场景、效力及相互关系上各不相同。标准作为法律规范与技术实践的耦合,是规制与自治之间的衔接点和缓冲区。国家部委及地方政府等监管机构牵头制定的技术标准可被视为硬法的触手,用以约束或引导生产生活;另有相当数量的技术标准源于对最佳实践的总结,具有自下而上的自治色彩。因此,标准正适合用于制定算法信息披露的结构性元规则,在沟通偶然性的去随机化中形成秩序。

技术标准在建构与算法系统的沟通机制上具有以下优势。第一,技术标准符合算法规制的场景性要求。计算机算法作为一种通用性技术,被不同主体普遍运用并嵌入不同的应用场景之中,机械使用某一种规制策略都没有充分考虑算法应用的场景性,因此应当采取场景化规制的策略。针对自动驾驶、人脸识别、公共卫生、城市交通等不同领域应制定不同标准,同一领域内的细分场景也有必要精细区分。第二,算法治理具有极强的技术性,适合技术标准发挥作用。算法规制不可避免将会出现大量技术术语,并在算法查验、可解释性、可测试性等方面需要设定技术性指标,这些正是技术标准的常见内容。第三,技术标准能根据算法技术的最新动态及时更新、灵活应变。硬法具有强制约束力,需要在相当一段时期内得到普遍遵守,保证高度的稳定性。但是,技术的日新月异使问题的产生远远快于问题的解决。如何于迅速变化之中在稳定性和适应性之间寻得平衡,是算法规制必须应对的棘手难题。相比法律法规,标准的制定过程更加灵活简便,且不同类型的标准可以相互转化,能适应算法技术的变动性。


(三)以技术标准巩固算法的法律规制

技术标准适合用来指引结构性元规则的制定,从而建立法律系统与算法系统的协作沟通机制。技术标准把法律与算法系统的沟通化简为两个子问题:第一,算法标准是否合理合法;第二,算法运作是否符合标准。类比食品、药品的生产,其流程、工艺、配方都因涉及商业机密而无法公开,但人们对于“黑盒”中生产出来的产品依然可以放心使用,一个重要的原因就是食品药品标准可以作为食药安全的检测基准。相信算法也会经历类似的过程:通过将特定算法与国家标准、行业标准、团体标准进行比较,就能更快获取有关算法的信息。换句话说,算法标准化能够降低人们与算法系统进行沟通的信息成本,而降低信息成本无论对立法者还是法院而言都是一个重要的考量因素。此外,标准还有助于大众逐步脱离“技术文盲”的境地。随着算法标准体系的建立,人们将逐渐建立起诸如算法测试、算法审计、数据备份等基本概念,形成一套理解算法的基本框架,提高对数据安全、个人信息等无形权益的敏感性和关注度。

基于算法标准的法律规制体系为算法规制提供了一个新的视角,众多算法规制的工具可以被囊括在内,并根据具体场景采取因地制宜的策略。算法审计、算法查验、算法可解释性和可测试性在标准层面大有用武之地。实际上,技术标准正成为践行算法规制的重要场所。以央行最近发布的《人工智能算法金融应用评价规范》为例,其中第6部分从“安全性评价”的层面对算法的依赖库、可追溯性、内控机制提出具体要求,第7部分从“可解释性评价”的维度涵盖了算法模型的准备、建模、应用的全过程。因此,通过标准进行规范建构,不必打开算法黑箱同样能为算法黑箱“立法”,而且可以针对具体场景进行精准规制。

通过技术标准开展算法规制的思想已经在法律实践中萌发。无论事前监管或事后问责,都可以从算法的标准化中受益。技术标准既是过程控制的指引,也能为事后问责提供保障。对事前监管而言,通过制定场景化的技术标准,能够走出算法透明在披露内部逻辑与外部理由之间摇摆不定的困境,将算法标准作为首要披露对象。更重要的是,技术标准有助于维护事后问责机制。“魔鬼隐藏在细节之中”,唯有通过在数据获取时间、数据来源、采样方法方面保证训练数据可追溯性,在建模脚本、起止时间、迭代记录等方面保证建模过程可追溯,在部署脚本、环境配置等方面保证部署可追溯,才能为结果问责提供扎实的事实基础。


五、基于算法标准化的软硬法混合治理图景

前文已对技术标准在法律与算法之间的沟通功能进行了理论论证,但尚未对技术标准如何付诸实践进行分析。在传统的算法规制框架中,技术标准通常处于辅助性的边缘地位;相比之下,本文将技术标准视为算法规制的基础性环节,因而不能回避算法标准的现实效力问题。由国家强力背书的硬法尚且有着书本上的法与行动中的法的巨大差异,技术标准作为一种主要依赖自愿执行的软法规范,其在纸面上的强制力更是先天不足。因此,以下将从三个方面对算法标准如何在实践中发挥效力提出建议,描绘一幅软硬法混合治理的图景。

(一)以声明机制加强标准的约束力

从我国的现实情况看,算法与已有的产品和服务不同,并不要求在研发过程中必须符合特定的标准。这就意味着尽管国家陆续出台了大量有关信息技术的相关标准,但究竟有多少企业在使用这些标准对公众来说是一个未知数。现实生活中,大量算法仍处于“无标生产”的状态。所谓“无标”并不是指算法的研发完全由开发者自由发挥、毫无章法。毕竟,企业即便没有使用国家标准、行业标准等外部标准,至少会实施一些涉及软件的开发、测试、运营及维护的内部规则。目前,我国尚未建立针对算法标准的公开、声明机制,因此互联网企业极少披露其算法标准。

算法标准的披露应当整合进我国现有的标准自我声明公开制度中去。2018年1月起实施的标准化法(修订)第27条创设了企业标准自我声明公开和监督制度,用以替代标准备案制度。根据该规定:“企业应当公开其执行的强制性标准、推荐性标准、团体标准或者企业标准的编号和名称;企业执行自行制定的企业标准的,还应当公开产品、服务的功能指标和产品的性能指标。”声明公开后的标准与公司章程以及企业承诺书发挥效力的机制有异曲同工之妙。企业在具体执行什么标准的问题上具有选择的权利,但是标准一经公开便具有法律效力,“应当按照标准组织生产经营活动,其生产的产品、提供的服务应当符合企业公开标准的技术要求”。因此,自我声明制度是将标准赋予约束力的纽带。企业生产的产品和提供的服务应当符合其声明公开的标准的技术要求,否则就要依法承担相应责任。从软法与硬法的关系上分析,对算法标准进行声明公开可以被视为软法的“硬化”。推荐性标准本身不具备约束力,而且企业也可以选择制定不同于国家标准的内部标准。但是,企业标准一旦公开,其实施情况就进入法律监督范围内,如果违反所公开的标准就要承担法律责任。通过标准自我声明公开机制来加强技术标准的约束力,具有以下几方面的好处。第一,保障技术标准的多样性。推动企业标准的规范化和公开化,进而通过自下而上、博采众长的方式促进国家层面的标准制定。第二,减少监管部门与企业之间的信息不对称,有利于开展事中事后监管,落实问责机制。第三,促进算法标准的社会监督。公开的标准对全社会可见,从而可以调动公众、行业组织以及研究机构的积极性,形成多元共治。当然,算法的种类千差万别,若对每一种算法都设定专门标准有可能过于零碎化。因此,可以将具有类似性质的算法合并归类,适用少量的基础性、通用性标准。例如,涉个人信息的算法至少需要满足《个人信息安全规范》,涉金融个人信息时则可使用《个人金融信息保护技术规范》。此外,算法标准的声明公开可以采取分级分类、渐次推进的方式。毕竟不同机构的算法,甚至同一机构所使用的不同算法,其影响力有明显差异,所以法律可针对特定主体、特定场景对标准公开作出规定。

需要补充说明的是,标准化法中的自我声明机制主要针对企业,未将国家机关包括在内。尽管很多国家机关所使用的算法实际上由企业具体研发,但考虑到法院、政府部门、事业单位等机构也可能有内部研发团队从事算法研发,因而应考虑将标准自我声明机制扩展到企业以外的其他组织。

(二)以算法标签化推动“可视正义”

日常生活中的食品、药品外包装标签上大多会注明所使用的执行标准,国家也出台了大量关于标准信息披露的强制性规范。例如,《药品说明书和标签管理规定》第22条规定:“原料药的标签应当注明药品名称、贮藏、生产日期、产品批号、有效期、执行标准、批准文号、生产企业……等必要内容。”国家强制标准《预包装食品标签通则》(GB7718-2011)第4.1.1款规定:“直接向消费者提供的预包装食品标签标示应包括食品名称……生产者和(或)经销者的名称、地址和联系方式……食品生产许可证编号、产品标准代号及其他需要标示的内容。”

算法作为一种数字化革命以来的新鲜事物,并非像食品、药品那样看得见、摸得着的“入口之物”,因而对算法的标签问题没有具体规定。应当借鉴食品、药品的相关规定,要求算法生产者、使用者为算法“贴标”,标示的内容应当在软件说明或介绍界面中明确展示。通过算法贴标的方式,一方面可以缓解用户与算法生产者、使用者之间的信息不对称,建立起人们对算法黑箱的信任感,实现“可视正义”;另一方面能充分利用公共监督、社会监督、舆论监督的方式,在算法使用者是否贴标、是否遵守所披露标准、使用标准是否已失效等问题上与监管部门形成合力,降低执法成本。

不妨设想一款智慧医疗App算法,则应在其标签中标示以下事项:算法名称、日期、算法分类、版本识别号、版本控制软件、算法执行标准号、算法生产方、算法控制方、数据安全分级、数据处理所在地、个人信息保护标准以及其他信息。这些内容只是初步构想因而需根据具体场景进行调整,但已能展现算法贴标在算法规制领域的巨大潜力。

第一,算法生产方和算法使用方。以人脸识别技术为例,政府所使用的安防技术大多来自企业。尽管数据仍然在政府的控制范围内,但算法模型对政府而言是一个黑箱。在这种情况下,有必要区分算法生产方和算法使用方。此外,同一种算法模型可能被应用到不同的场景中,因此贴标工作应当由算法使用方承担。第二,版本识别号。所谓“版本控制”是一项软件工程中对源代码进行管理的重要模式,其主要功能是追踪源代码的变更,把谁、何时、修改了什么等信息忠实地记录下来。正如产品的生产批号有助于事后追踪特定批次产品的责任,算法的版本号可以定位到某一“批次”的源代码,为事后问责提供便利。第三,算法技术标准。标准是实现对算法黑箱的软法控制的关键手段,因此标准是算法标签最重要的信息之一。值得注意的是,标准自我声明机制并不要求企业的标准需要高于推荐性标准,这为企业标准提供了一定的自主空间。第四,数据安全、个人信息保护相关内容。算法与数据都是数字世界的基本要素,共同构成了数字孪生时代的基础。对于数据进行操作离不开算法,算法也难以脱离数据独立运行。因此,关于数据、个人信息保护的相关标准也应在算法标示内容中一并列出。

(三)建立算法标准与上位法的联动机制

推动技术标准与法律法规在法律系统内部形成了相互支撑的同心圆结构。刚性、稳定的法律法规处于法律系统中心,柔性、灵活的技术标准处于系统边沿,共同构成了刚柔并济的“一元性多样化混合法模式”体系。面对现代社会日益复杂、流变的现实状况时,如何对不同的规制工具进行整合以取得最佳治理效果,是践行良法善治的重要内容。技术标准作为法律系统与算法系统的结构耦合机制,既可以适应技术的灵活性和复杂性,同时也能接收来自法律系统的信息,实现跨系统沟通。

此外,从法律解释的视角来看,技术标准对法律法规能起到解释作用。正如卡尔·拉伦茨所指出的,“法律经常利用的日常用语与数理逻辑及科学性语言不同,它并不是外延明确的概念,毋宁是多少具有弹性的表达方式”,因此法律的可能意义“在一定的波段宽度之间摇摆不定……即使是较为明确的概念,仍然经常包含一些本身欠缺明确界限的要素”。司法解释、立法解释主要以法律人为受众,而技术标准面向的是从事算法研发、撰写代码的科学家和工程师。“法律语言不能达到像符号语言那样的精确度,它总是需要解释。”因此,从法律语言到代码(典型的符号语言)之间显然有进行解释的必要性。

技术标准作为上位法的“解释者”的地位已在国内外初现端倪。以欧盟《通用数据保护条例》(GDPR)为例,这部“史上最严”数据保护立法极大提升了企业的合规动机,也使得与GDPR相关的周边技术标准快速普及。实际上,尽管对GDPR所创设的拒绝权、数据携带权等内容的法教义分析具有重要理论价值,但如果把视线转向微软、亚马逊、阿里等大型跨国科技企业,它们的云基础设施建设并不直接参考GDPR,而是实施了ISO针对GDPR制定的ISO/IEC27701等标准。相比欧盟,我国拥有数量众多的本土高科技企业,并且企业参与国家标准制定也是常态,标准供给颇为充足,政企合作也更为密切。例如,国家信标委在2020年11月启动了《个人信息安全规范》试点工作,旨在推动规范中的关键要求在企业得到落实以形成优秀案例在全国推广,多家头部企业参与试点。然而,由于缺乏上位法的支撑和巨额罚款的威慑,企业对算法标准的重视程度以及实施力度仍是一个未知数。相信等到个人信息保护、数据安全以及平台反垄断等领域的立法陆续出台,技术标准在有了上位法的加持后定能发挥更强的现实效力。


由数据、界面、模型构成的数字孪生体架构,让大数据、混合现实、人工智能等技术得以分层协作、各司其职,同时也使得算法的黑箱化成为不可逆的趋势。一方面,代码封装、接口分离的工程实践势必形成一个个算法黑箱;另一方面,人们的理性有限因而也不可能理解并处理有关算法的全部信息。当算法黑箱使技术复杂性得到化简,法律系统却付出了巨大代价:算法黑箱有可能遮蔽损害结果、隐藏决策规则、模糊责任判断,使法律问责的难度陡增。然而,试图把算法置于法律的全方位、穿透式监管之下,将模糊法律系统与算法系统间的界限,进而把法律拽入算法的复杂性泥潭,甚至在与商业秘密、隐私保护等其他法益的冲突中影响法律系统本身的安定性和融贯性。解决之道在于取得算法封闭性与法律可责性之间的微妙平衡——在技术维度尊重算法的运作封闭性,在法律关系上透视算法黑箱。借助于技术标准所具有的场景性、灵活性、技术性等优势构建软法硬法混合规制模式,可以走出打开黑箱和避让黑箱的二元框架,实现法律与算法的跨系统沟通,巩固作为法治基石的问责机制。