【作者】赵精武
【内容提要】
科技伦理嵌入人工智能治理体系的路径展开——以自动驾驶应用场景为例
赵精武 北京航空航天大学法学院副教授
摘要:人工智能技术风险具有风险重叠交叉的特征,单一的治理工具无法有效控制技术风险,因而科技伦理治理的引导规范作用开始受到关注,并被引入人工智能治理体系。然而,现有研究大多停留于科技伦理层面探讨相应的治理机制建构路径,未能充分阐明科技伦理治理机制如何与法律、技术和市场等其他治理机制相互结合,发挥协同治理的效果。科技伦理治理本质上属于一种方向型、引导性治理机制,具体的治理功能包括引导、协商、识别和反馈四个要素,与此对应的治理机制包括科技伦理风险研判管理机制、科技伦理风险识别评估机制和科技伦理风险反馈应对机制。具体到自动驾驶领域,则表现为包括科技伦理风险、技术安全风险、权益侵害风险和市场失序风险在内的一体式评估,确认不同风险的轻重缓急并采取针对性治理机制。
一、问题的提出
ChatGPT所展现的智能化水平远远超出社会预期,更是将数字社会推进至“人工智能技术阶段”。在当下,人工智能技术最为热门的核心研究议题便是如何充分实现人工智能技术的社会效益并控制潜在技术风险,这同时引发了计算机科学、法学、伦理学等众多学科的人工智能风险治理研究浪潮。在法学领域,大有人工智能法学研究占据法学研究“半边天”的研究趋势。诚然,其中确实存在或多或少的“研究泡沫”或“蹭热点”,甚至部分研究呈现“技术治理理论研究远超技术发展实践”的超前状态,但这实为学界面对科技创新逐渐成熟的局面所必然经历的过程。随着学者们对新旧风险、真假问题的论证深入,相应的研究趋势也从“逐一列举风险逐一提供建议”等风险对策论逐渐聚焦至训练数据合法使用、侵权责任分配等具体问题。要言之,人工智能领域需要一种更为系统且全面的治理体系。
这种人工智能治理体系的研究倾向,一方面回应了当下人工智能统一立法的社会关注重点,另一方面则是为了应对人工智能技术风险对既有治理体系的冲击。面对当下以及未来潜在的各类技术风险,法律、伦理、技术、市场等任何单一治理机制都难以有效预防和控制。特别是在“利用人工智能复活死者”“自动驾驶应用颠覆网约车市场”等场景中,法律风险、科技伦理风险等多元化风险类型相互交织,使得技术治理实践需要采取一种更为综合性的治理模式,以便全局性地解决技术应用的风险多元化问题。事实上,诸如体系治理、综合治理、协同治理等治理理论被学者们视为解决人工智能治理问题的不二选择,甚至只要言及此类研究,不少学者必提及劳伦斯 · 莱斯格在《代码2.0》中提出的“市场、架构、社会规范和法律”四维度治理框架。因此,法律、伦理、技术、市场等治理工具被逐一纳入人工智能治理框架,并建构了诸如科技伦理审查、国家技术安全标准等跨领域的治理机制。
然而,遍览现有研究,人工智能治理框架下的多元治理机制虽愈发丰富,但这些机制之间如何有效衔接、如何明确机制差异等问题仍未得到很好的解决。特别是在科技伦理风险领域,法学领域的部分研究习惯性地将此类风险与侵权风险合并论述,使得科技伦理治理机制成为法律制度的具体内容之一。殊不知科技伦理治理与法律治理终究属于两类不同的治理模式,其治理效果的实现方式也有所差异,将两者混同论之,很可能导致治理目标的落空。因此,确有必要重新审视科技伦理治理机制如何嵌入人工智能技术治理体系,并协调其与法律、市场、技术等其他治理机制之间的衔接方式。
二、人工智能科技伦理治理的理论基础与常见范式
(一)科技伦理治理的治理目标与治理理论
在实践中,人工智能技术风险具有复杂性、综合性的特征,既涉及技术应用损害权益的侵权风险,也涉及技术应用是否颠覆人类主体地位的科技伦理风险、信息系统是否安全可靠的技术风险等其他风险。基于风险类型的差异性,人工智能治理理论延伸出不同的治理模式和治理范式。如科技伦理治理便是以治理科技伦理风险为主要内容的治理模式,并且结合伦理规范的灵活性和开放性特征,往往能够以更快的速度回应技术创新所产生的各类技术风险。因此,有不少学者将科技伦理视为填补其他治理机制难以有效回应科技创新新兴风险之不足的重要补充工具。特别是科技伦理审查机制在当下备受法学学者关注,主流观点倾向于将之作为开展科技创新活动的前置性合法要件。然而,这种研究倾向实则忽视了科技伦理治理与法律治理两者所遵循的内在治理逻辑差异。相较于法律治理所关注的具体权利保障等治理目标,科技伦理治理实质上属于一种方向性、目标性治理。因为科技伦理本身并不具备特别清晰的具体内涵,更多时候是以抽象的社会价值为主要内容,这决定了科技伦理治理是为科技创新活动提供方向性的指引,具体表现为“以伦理为原则为指导,解决科技发展面临的伦理问题和社会问题,增进科学技术为人的福祉而发展的各种方式的总和”。
在实践中,人工智能领域科技伦理治理最核心的问题便是如何促成多元社会主体达成共识性的科技伦理观念。在科技伦理治理制度化的过程中,这一问题转变为如何在具体制度建构过程中确立符合各方法律主体权益诉求的治理标准。为此,国内学者延伸出三类科技伦理治理理论:第一类是科技伦理治理法治化,侧重强调法治与伦理治理的有序互动,将碎片化的科技伦理规范整合成一体性的治理机制。例如,一旦出现某种违反科技伦理的情形时,明确是否应当上升至刑法规制范围,何种情形应当采取行政措施等。有学者认为法治与科技伦理治理的治理逻辑的区别在于,法治是以“安全”作为建构科技规制架构的社会价值起点,而科技伦理治理则是侧重回应科技引发的广泛性社会问题,故而法律介入科技伦理议题的方式应当是对科技研发、设计等“上游”活动和技术应用等“下游”活动进行差异化回应。第二类是伦理先行干预,即在科技治理环节,科技伦理应当优先于其他治理工具先行适用,以方向性的伦理规范指引科技创新良性发展,因为科技伦理治理的内在逻辑往往表现为“以伦理红线应对技术不确定性”“以伦理规范约束技术资本”“以伦理先行补充法律作用有限性”。第三类是从伦理学视角解释科技伦理治理的基本内涵,如从应用伦理学中的原则主义出发,在人工智能领域,科技伦理原则“提供了一个统一词汇表,作为认知框架框定了所有问题的求解方案,供人工智能研发人员考虑潜在的风险”。
比较这三类理论主张,第二、三类的伦理学解释立场更加符合科技伦理治理的核心特征。首先,第一类主张在一定程度上混淆了“法律规定了科技伦理治理机制”和“科技伦理治理法治化”之间的区别。科技伦理治理的基本内涵较为宽泛,并不是所有的治理机制都能够予以制度化。即便在法律法规中规定了科技伦理管理等内容,实际的运行机制也还是以抽象的价值评估和衡量为主,并不能形成该类主张的一体化机制。其次,第二类主张契合了科技伦理的补充性治理特征,因为科技伦理规范往往不具有强制性效力,故而其发挥规范作用的环节需要先于其他治理机制,并且属于一种解决其他治理机制难以涵盖问题的补充治理机制。最后,第三类主张直指科技伦理治理的伦理学本质,科技伦理治理的核心机制是向科研人员提供一整套普适性的认知体系。在多元文化背景下,形成统一的科技伦理共识存在难度,而科技伦理治理则是通过伦理原则、伦理审查等方式将抽象的伦理价值聚焦于具体的技术应用方式,促成抽象伦理规范向可视化应用标准转变。
(二)人工智能科技伦理的治理功能
现有科技伦理治理模式仅仅是一种“软法治理”,实践层面的治理功能也相当有限。然而,从治理机制分工合作的视角考虑,这种约束力较弱的治理模式自始至终都不是为了对具体的科技创新行为施加特别明确的限制条件。反观科技伦理研究浪潮在人工智能技术治理领域兴起的原因,不难发现该类治理模式的最终治理目的是在尽可能不影响科研自由和科技创新空间的情况下提供伦理方向的“优化建议”。人工智能技术治理的核心目标是统筹兼顾科技创新和科技安全,因为这两种治理目标的权衡状态并没有唯一正解,所以才需要通过科技伦理治理机制所形成的伦理协商空间,实现不同主体对这两类目标实现方式形成最大化共识。当然,也有学者认为科技治理体系存在“促进科学技术的发展”“确保科学技术发展的过程健康有序”和“控制科学技术的后果和影响”三个主要目标,这三个目标的同步实现同样也不可能仅仅依靠法律、技术等其他治理工具。伦理先行干预理论便在此基础上提出,即在开展科技创新活动之前,由科技伦理规范先行进行战略和规划层面的必要干预,同时,在技术应用层面进行事前必要的伦理评估和外部监督。总结而言,科技伦理治理功能的实现方式是以开放式的科技伦理吸纳社会群体意见,使得科技创新活动无限趋近于理想状态。
这种功能实现方式并非臆造,而是与科技伦理治理的具体功能密切相关。具体而言,人工智能科技伦理治理功能包括引导、协商、识别和反馈。其一,引导功能主要是指科技创新活动受到科技伦理规范的影响,研发设计、应用推广等各个环节均以社会共识性的科技伦理原则作为行为指引。其最直观的表现便是对科技创新人员进行诸如工程伦理、设计伦理等科技伦理观念培养,使其自觉践行科技伦理观念。其二,协商功能主要是指开放式的科技伦理内容允许各类社会主体表达对科技伦理的不同态度和解释方案,在众声喧哗的社会公共对话中寻求共识性的科技伦理原则。例如,对于利用人工智能“复活”死者,在近亲属同意的情况下,是否存在侵蚀死者主体地位的伦理问题便是社会公共对话内容的代表之一。其三,识别功能主要是指科技伦理规范能够作为科技创新活动合理性的判断标准,发现和确认是否存在潜在的科技伦理风险。例如,科技伦理审查机制便是对涉及敏感研究领域的人工智能创新活动进行评估,进而判断是否存在事前规避的科技伦理风险。其四,反馈功能主要是指经过科技伦理评价的科技创新活动能够进行自我调整,同类技术创新活动会根据已有的科技伦理问题进行必要调整和风险预防,避免同类伦理问题重复发生。
引导、协商、识别和反馈四项具体功能使得科技伦理规范以有别于法律治理等其他治理模式的方式发挥规范性作用。部分学者也从伦理学的角度将“伦理”的功能总结为“检查功过是非的反思功能”“面向科技活动及其结果价值问题的评价功能”“依据伦理进行制裁的功能”以及“将过去经验与未来发展联系起来的引导功能”。这种功能拆解本质上也是围绕科技伦理治理提供方向性、目标性指引这一治理机制特征所建构的,然而,其中提到的“伦理制裁功能”仍然有待商榷,伦理之所以具有所谓的“制裁”功能,如基于环境伦理问题的处罚,是因为伦理规范经由社会公众普遍认可转化为具有强制效力的法律规范,这并不能简单得出“伦理具有制裁功能”这一结论。诚然,科技创新活动所引发的一系列社会治理问题确实会对既有的治理理论产生一定影响,也如部分学者所发现的,“科技伦理治理强调从科技与社会交互作用中强化伦理规制,提升科技治理中的道德控制力”。但是,这种伦理规范功能的强化本质上指向重视科技伦理治理的重要性和必要性,而不是试图在科技伦理治理框架中引入类似法律治理的强制效力。
(三)人工智能科技伦理治理的常见机制
在探讨科技伦理治理嵌入人工智能治理体系之前,还有一个问题尚待明确:科技伦理治理具体包括哪些治理方式或治理机制。如果仅将科技伦理理解为用科技伦理规范判断科技创新活动,就只会将相关问题的讨论限定在相当笼统的范围,无法在治理实践层面回应具体问题。科技伦理治理功能决定了相应的治理机制,引导、协商、识别和反馈四项功能也对应了四类科技伦理治理机制:其一,引导功能延伸出行业指引性治理机制,具体包括监管机构事前制定科技创新产业规划、最佳实践范例等。科技产业规划是将科技伦理治理与监管实践相结合,强调监管机构在制定产业政策、产业规划的过程中应当考虑到科技伦理相关因素,引导、鼓励和支持科技企业、科研机构采取符合科技伦理要求的科技创新方式。其二,协商功能延伸出科技伦理治理公众参与机制,即针对具有争议性的科技伦理问题,采取征求社会公众意见等方式,实现科技伦理层面的探讨,促成共识性的伦理原则的形成。其三,识别机制延伸出科技伦理审查机制、科技伦理研判机制等治理机制。科技伦理审查机制的主要功能在于发现和识别是否存在严重的科技伦理风险,其适用范围主要是实践层面的特定科技创新活动;科技伦理研判机制的主要功能则是对高风险的科技创新领域进行动态跟踪和风险研判,适用于特定科技创新尚处于初步发展阶段,未来的技术发展方向、潜在的科技伦理风险表现形式尚不确定,研判国内外产业技术创新动态,进而预测性地确认相应的科技伦理风险。其四,反馈功能延伸出科技伦理管理监督机制、科技伦理整改督促机制等优化改良型治理机制。科技伦理治理的直接作用对象是科研人员,通过科技伦理审查、科技伦理风险研判等机制,将科技伦理风险识别结果反馈至科研人员,使其能对研发设计应用环节进行适当的技术优化。
引导、协商、识别和反馈四项功能之间存在衔接关系,进而使得相应的科技伦理治理机制呈现体系化衔接关系。首先,引导功能所涉及的科技伦理规范主要是以科技伦理原则为主,如《关于加强科技伦理治理的意见》中列举了“增进人类福祉”“尊重生命权利”“坚持公平公正”和“保持公开透明”等原则,这些属于协商、识别和反馈功能需要严格遵循的科技伦理治理方向。因此,协商、识别和反馈等功能延伸出的治理机制不应当与引导功能所确立的治理机制相悖。其次,协商功能是在引导功能所确立的科技伦理原则框架内细化科技伦理判断标准,这种判断标准会直接应用于识别功能和反馈功能所确立的治理机制。特别是人工智能技术应用领域,科技伦理问题分歧较大,更需要在其他治理机制之前确立共识性的科技伦理标准。然后,协商、识别和反馈功能所确立的治理机制在科技伦理审查层面存在重叠交叉。因为科技伦理审查通常由具有专业技术知识、法学和伦理学知识背景的各类专家共同评估判断,所以这种审查过程亦是科技伦理观念的协商过程。此外,在反馈功能所确立的治理机制作用下,科技伦理审查所作出的道德判断以及专家建议又会反馈至被审查对象,再次实现具体技术应用领域的科技伦理引导功能,进而达成科技伦理治理的功能循环。
需要说明的是,科技伦理规范的具体内容并不固定,相应的科技伦理治理机制也会随着科技伦理规范的内容创新而有所变化。科技伦理治理的灵活性不仅仅表现为科技伦理规范内容能够根据科技创新活动不断演化,还表现为科技伦理治理能够根据科技伦理风险的基本特征形成更具针对性的治理机制。因此,在探讨科技伦理治理嵌入人工智能治理体系时,核心问题并不是哪一类或者哪几类治理机制应当予以法治化,而是应当如何明确科技伦理治理功能能够与哪些法律、技术、市场治理机制进行衔接。
三、人工智能科技伦理治理的制度化嵌入路径
(一)科技伦理治理制度化嵌入的理论前提:风险识别
既有学说大多会将风险预防、风险治理等相关理论作为技术风险治理的理论基础,甚至部分学者习惯性地援引国外学者乌尔里希 · 贝克所提出的“风险社会”概念,并顾名思义地将该概念解释如下:因为现代社会时刻处于人为制造的风险之中,故而需要法律等治理工具进行全方位的治理和预防。这种理论解读忽视了风险社会理论属于体系宏大的社会学理论,这也致使相应结论不过是将“现代社会需要重视风险预防型治理”这一共识性结论换种表达方式,未能真正解释现代社会风险对社会治理体系究竟产生何种影响。“风险社会”理论的理论贡献之一在于发现了风险界定过程中存在的科学利益集团风险,不同利益团体可能会根据自身的利益诉求对风险界定作出非客观性的评价,用以规避伦理责任、法律责任。也有学者以核电站危机为例,解释每一个利益集团通过风险界定规避可能影响其自身利益的风险,即核电站易受到自然灾害影响的原因是这类风险不可预料、不可控制,故可不去谈及核电站本身究竟是否存在技术缺陷、管理漏洞等因素。在人工智能领域,法律治理固然可以明确研发者、服务提供者各自的安全保障义务,但是科研单位或科技企业可能借由专业知识壁垒将风险事件的发生纳入免责事由范畴,如现有技术的局限性无法解决这类问题。此时,其他治理机制的介入就显得尤为必要。
人工智能治理体系是集风险治理和促进科技创新于一体的治理体系,其中的风险识别既是确保技术安全的重要保障,也是促进科技高质量创新的基础要件。在实践中,人工智能技术风险通常由各类风险组合而成,协同治理、体系治理等治理理论也因此得到学界关注。在协同治理理论视角下,人工智能技术风险的来源和成因具有多样性特征。一项科技创新活动具有高风险并不单纯是因为科研人员无视法律、伦理等,还可能包括市场调节机制失灵而无法控制对经济利益的非理性追求、技术创新方向的不可知性等因素。因此,人工智能技术风险的解决需要政府机构与非政府机构共同自由参与技术治理活动,并借由不同的治理工具发挥各自的治理效用,实现一致性的技术治理目标。主流观点通常将协同治理理论的实现方式归结为政府功能的调整、市场机制的引入、法治保障的强化、社会公众的参与等,强调不同治理主体、治理机制之间的相互联结、相互作用。协同治理的具体实现方式可能存在理论分歧,但是其共同点在于,均是以人工智能技术风险的复杂性作为理论前提,在治理分工的基础上再考虑协同。换言之,复杂的技术风险仍然需要在事前细分具体的风险类型,再由风险类型的特殊性设置不同治理机制的衔接路径。
在科技伦理风险层面,具体风险样态的涵盖范围存在两类分歧:广义社会风险论倾向于将所有影响个体权益的风险样态均纳入科技伦理范畴,如部分学者认为数据隐私泄露风险、数据过度收集风险、侵权责任承担主体模糊风险等均属于人工智能发展面临的科技伦理挑战。狭义伦理风险论则将科技伦理风险限定于传统伦理范畴,主要以个人权益侵害风险、社会公平正义受损等风险作为具体风险样态。广义社会风险论实际上将科技伦理风险与法律风险等同视之,相应的治理结论也无法有效衔接科技伦理治理与法律治理。虽然隐私保护与伦理规范存在一定的关联性,但是人工智能领域的隐私侵权风险本质上属于法律风险或安全技术风险。若以伦理价值作为隐私问题纳入科技伦理风险范畴的正当性基础,只会导致科技伦理治理机制与其他治理机制同化,科技伦理规范的评价过程成为其他治理机制的“附属品”。需要指出的是,科技伦理风险的核心样态应当是科技发展与人类伦理观念的不适配状态,人工智能科技伦理风险的发现、确认和识别应当是以科技伦理观念为基础,而不是以法律意义上的权益保障为中心。部分学者也提出科研伦理的基本原则是“推动科技活动负责任开展、科技向善发展”,科技伦理风险更多地涉及科技创新是否合理的问题,而非是否合法或者技术应用是否安全。
(二)科技伦理治理机制的个体化嵌入
科技伦理治理机制的具体形态会跟随科技伦理风险的具体样态而有所变化,但是在治理逻辑层面,其仍会保持相对独立性,即遵循“引导—协商—识别—反馈”之逻辑,长效性地解决科技伦理风险。科技伦理治理机制整体性嵌入人工智能治理体系需要结合该类治理机制的作用特征展开。具体而言,科技伦理治理特征主要表现为其是一种循环往复的持续治理过程。面向特定科技创新活动,科技伦理的评价活动除了事前评价、跟踪评价之外,还会因为科技伦理规范的变化进行二次评价,其目标是促使科技创新活动持续趋近于理想状态。有学者将这种治理过程称为“反思性发展”理念的直观体现,从“前瞻性预见”“实时性评估”和“系统性调整”三个方面解决科技发展与治理的内在对立。这种技术伦理治理理念的实质是“风险研判—风险发现、识别、评估—风险应对”这一基础性风险治理逻辑的体现。在单一面向科技伦理风险时,科技伦理治理机制的嵌入方式应当是完成单一风险治理的内在逻辑体系衔接,即建构科技伦理风险研判管理机制、科技伦理风险识别评估机制和科技伦理风险反馈应对机制三个部分。
第一,科技伦理风险研判管理机制属于预期性治理机制。回顾人工智能技术的发展进程,不同阶段的技术治理研究呈现出不同的研究重心。早期研究由于技术水平的限制,并未察觉到人工智能技术所存在的特殊伦理风险,并且部分伦理议题也被视为超越了技术应用本身。而在ChatGPT、Cladue等人工智能产品涌现之后,人工智能科技伦理的研究开始逐渐聚焦于歧视、偏见等问题,在法学研究领域亦是如此。无论是技术专家,还是监管机构,均无法对人工智能技术的未来发展方向作出准确预测。面对超出可预见范围的各类技术风险,以具体法律制度予以限定反而会限制科技创新活动,故而需要更加灵活的科技伦理规范,在难以准确预测潜在风险的情况下,通过科技伦理规范来引导科技创新活动自觉采取有利于社会公共利益的方式进行。
第二,科技伦理风险识别评估机制属于风险确认型治理机制。在论及人工智能科技伦理治理时,常见的问题便是按照什么样的科技伦理标准进行治理,哪种科技伦理标准具有权威性。科技伦理规范的开放性往往使得不同主体基于自身的利益考量,形成不同的科技伦理观念,进而使得调和并形成相对明确的科技伦理规范较为困难。相对地,风险识别评估机制的核心功能在于确认什么样的风险属于科技伦理风险,确保社会争议的伦理问题处于同一维度。针对人工智能技术应用究竟产生哪些科技伦理问题始终存有争议,法律问题、技术问题与科技伦理问题混同的现象较为常见,需要引入此类机制先行判断究竟存在哪些科技伦理问题。并且,风险识别评估机制的内容设置强调多元知识背景的行为主体共同参与,也是避免单一专业知识背景的主体所作出的风险识别评估结论具有强烈的个人主观性和过度的专业导向性。此外,科技伦理治理常见的另一个质疑点是该类治理机制是否有可能成为科技创新的非必要负担。科技伦理风险识别评估机制的主要功能是发现和确认科技伦理风险的基本类型,如若属于现行立法已经涵盖的禁止性事项,则依循禁止性法律规范予以解决即可,没有必要专门设置额外的强制性伦理规范进行二次约束。
第三,科技伦理风险反馈应对机制属于风险应对型治理机制。科技伦理规范最终作用对象是科技创新机构和科技创新人员,故而前述的风险识别评估机制所作出的道德判断理应反馈至这些创新主体,使其结合技术专家、伦理专家以及法学专家的整改建议和意见对科技创新方式进行优化调整。这种风险反馈应对机制既包括即时性反馈,也包括群体性反馈。即时性反馈是指将科技伦理审查等治理机制所作出的科技伦理风险识别结果和专家建议一并反馈至被审查对象,要求被审查对象根据这些结果和意见对科技创新活动进行调整。群体性反馈则是监管机构或者科技伦理委员会结合科技伦理治理实践,以禁止性清单等方式反馈具有高风险水平的特定科技创新活动。
(三)科技伦理治理机制的衔接式嵌入
明确科技伦理治理机制在人工智能治理体系中的单向嵌入路径后,还需要考量该治理机制如何与法律、技术、市场等其他治理机制衔接。人工智能治理体系强调实现促进科技创新与科技应用安全并重的目标,前述的单向嵌入路径以实现科技应用安全为目标,而促进科技创新的实现则需要解决治理机制之间的衔接方式,其技术治理所应当遵循的基本原则便是同一风险事项不设置功能重复的治理机制。任何治理机制的设置均会对科技创新产生不同程度的影响,只有有效处理各类治理机制之间的治理关系,明确区分各类治理机制之间的实质性差异,才有可能在保障安全的前提下促进科技创新发展。例如,在责任机制层面,伦理责任与法律责任属于两种不同的责任类型,不能因为科技伦理治理的制度化就推导出违反科技伦理规范应当承担具有强制性的不利后果。在制度化的过程中,科技伦理规范就已经被具体的法律规范所吸纳,承担法律责任的直接依据是违反强制性规范,而不是违反科技伦理规范。在伦理学层面,伦理责任通常与监管责任、研发责任等概念并列。在部分学者看来,科技人员的伦理责任主要包括“应当遵守的职业道德规范”和“对科技创新后果负责的社会责任”。因此,在协同治理理念下,伦理责任与法律责任的衔接关系亦是科技伦理治理机制衔接式嵌入需要明确的重点问题之一。
法律、技术、伦理和市场治理机制的衔接逻辑始终围绕风险特征展开,这些治理机制的核心衔接方式是对人工智能技术风险进行一体式评估,合并交叉重复的评估事项,避免出现重复评估风险的情况。在科技伦理治理层面,其与其他治理机制的衔接方式则表现为:
第一,在伦理与法律衔接层面,部分共识性的科技伦理原则已经被内化为法律基本原则,其衔接方式是建构科技伦理审查制度,将敏感研究领域的科技创新活动纳入审查活动中,并在区分强制审查和自愿审查的前提下,将是否依法进行强制审查以及审查结果作为判断科技创新主体是否对损害事实存在主观过错的标准。在责任层面,有且仅有强制性科技伦理审查才涉及法律责任的承担,而伦理责任则更多是以事前的内在规范约束科技创新主体,并在伦理观念的反思下选择恰当的创新方式。
第二,在伦理与技术层面,伦理规范并不直接作用于人工智能技术方案本身,而是作用于科技创新主体,所以两者的衔接方式便是推动科技伦理观念成为科技创新主体的主观意识。部分学者指出,科技伦理治理并不是“一朝一夕的运动式治理能够实现的”,“关键在于培养具有科技伦理意识和道德敏感性的科技创新者”。面对人工智能技术未来发展的不确定性,治理体系需要发挥科技伦理治理的引导功能,将工程伦理、职业道德培训嵌入科技创新活动中。虽然在伦理学界,“哲学家们并没有就伦理的基本理论或基本原则达成共识”,但是这并不影响科技创新主体以不同的科技伦理观念自觉践行最基础的伦理价值。国外学者更是提出一种实践导向性的“伦理嵌入”,让伦理学参与整个开发过程,以协作的方式分析和讨论潜在的伦理问题,并与科研人员共同寻求解决方案。
第三,在伦理与市场层面,人工智能治理实践最常见的市场风险便是无序竞争和发展状态,例如为了尽快占领市场而采用不安全的开源大模型、出于盈利目的开发高风险的人工智能应用产品等。市场风险与科技伦理风险的交汇点通常是不利于产业长期发展的行业发展趋势,故而两者的衔接方式主要是通过行业自律规范,一方面,在产业实践完全成熟之前,形成共识性的自律规范,用以解决潜在的不正当竞争风险;另一方面,人工智能技术应用产品、服务尚处于持续发展状态,将科技伦理规范融入行业自律规范范畴,有助于引导科技企业在不断发展中自觉选择更为合理的技术应用方式。
四、人工智能科技伦理治理嵌入式建构实例:自动驾驶科技
近来,“萝卜快跑”自动驾驶试点应用引发了较大的社会争议,争议的内容除了既有的自动驾驶行车安全、数据安全等法律风险、技术风险之外,还包括自动驾驶网约车是否可能挤占就业空间等社会问题。在前述治理机制的嵌入建构框架下,自动驾驶技术的伦理治理规则可划分为以下三个步骤逐步建构。
(一)第一步:自动驾驶科技伦理风险的分析识别
类似“萝卜快跑”等自动驾驶的人工智能技术应用实践,所面临的科技伦理问题具有一定的相似性,因为无论是无人网约车,还是无人配送车,均涉及如何安排和设置不同安全价值的保护位阶问题。一方面,在行车过程中,如遭遇紧急情况,自动驾驶信息系统究竟是应当以车内驾驶人人身安全为优先事项,还是应当在权衡车内车外实际损害结果的严重程度之后再行选择,这种假想式的科技伦理风险正在成为自动驾驶普及应用的伦理难题。另一方面,这种行车安全的伦理价值观念究竟应当以何种标准确立?如果仅由制造商、信息系统开发者承担,难免会存在商业利益追求优先于科技伦理的情况;但是如果有伦理学、法学专家参与承担,那么又如何确保这些外部专家不会将个人主观性的科技伦理观念强加于自动驾驶技术应用?其中,最常提及的科技伦理问题便是“电车困境”,即在面对不可避免的交通事故中,伤亡人员最小化和保护车内乘客常常使得自动驾驶应用陷入伦理困境。但是,需要说明的是,“电车困境”属于典型的思想实验,其核心功能不是在于得出“标准答案”,而是提供一种伦理标准的探讨平台,“电车困境”所指向的道德两难境地并非治理实践层面的科技伦理风险。部分伦理学研究认为人工智能应用所涉及的道德情景复杂性远超“电车困境”,这种伦理风险论断过高估计了自动驾驶系统的智能化程度,实质上是以未来才有可能出现的强人工智能技术作为技术实践基础。并且,现有的自动驾驶技术在多大程度上能够实现复杂道德情景中的伦理选择仍有商榷空间。
另外,“萝卜快跑”的试点应用还引发了另一个社会热点问题,即价格低廉的自动驾驶网约车抢占了传统网约车市场,大幅压缩了网约车司机的订单量。因此,也有将“自动驾驶应用侵蚀网约车司机的生存空间”之类的论断纳入科技伦理范畴的尝试。客观而言,科技创新引发社会就业结构变化的现象并不是仅仅存在于自动驾驶技术领域,数字传媒大幅取代纸质传媒同样曾经引发过就业结构的变化。以人工智能技术应用威胁社会就业稳定性等事由解释自动驾驶应用存在的科技伦理风险样态,显然脱离了科技伦理的概念定位,将科技伦理问题泛化为一切与社会稳定相关的社会治理问题。更确切地说,自动驾驶技术应用所引发的失业风险问题实际上属于就业公共政策范畴,并非属于科技伦理风险。人工智能治理体系中的科技伦理风险更多呈现为科技创新活动本身是否颠覆人类主体地位,失业风险本身属于科技创新活动必然会导致的社会就业结构的内在调整,并不涉及科技伦理相关问题。
尽管人工智能科技伦理风险的识别和确认存在诸多分歧,如部分学者认为科技伦理风险主要包括人机的关系紧张、伦理感知匮乏和算法偏见三个方面,但是,从人工智能治理目标来看,科技伦理风险的判断标准应当是科技创新是否合理,以及不合理的科技创新活动是否造成人类主体尊严的贬损。在自动驾驶领域,潜在的科技伦理风险究竟是否呈现“相当严重”“特别敏感”等特征仍有疑义。在现有自动驾驶尚未达成高度智能化决策水平的情况下,仅就现阶段的技术水平来看,自动驾驶应用的科技伦理风险是行车过程中遭遇复杂路况时,自动驾驶车辆能否基于尊重生命安全和人格尊严的考量作出最合理的行车决策。一般意义上的科技伦理治理强调更为全面且系统的治理架构,而在涉及具体应用场景时,科技伦理治理则在一般科技伦理治理架构基础上,突出具体治理机制的场景导向性。在自动驾驶应用场景中,相较于一般伦理风险而言,科技伦理风险侧重科技创新活动、科研人员是否符合特定技术领域的伦理规范,相应的治理机制嵌入建构则需要围绕特定场景的科技伦理风险展开。此外,自动驾驶应用的科技伦理风险也包括其他人工智能应用所存在的算法歧视风险、设置不合理的优先服务顺位等,只不过这些科技伦理风险在技术治理体系的一般层面就已经被涵盖了。
(二)第二步:自动驾驶科技伦理风险的单一式治理
自动驾驶技术应用所面临的科技伦理风险主要是行车路况决策不符合科技伦理规范,根据“风险研判—风险发现、识别、评估—风险应对”的风险治理模式,自动驾驶应用场景的科技伦理治理的个体嵌入方式包括自动驾驶科技伦理研判管理机制、自动驾驶科技伦理风险发现识别机制和自动驾驶科技伦理风险反馈应对机制。
第一,自动驾驶科技伦理研判管理机制主要是根据自动驾驶产业实践发展状况,结合产业发展政策和科技创新规划,明确自动驾驶领域的科技伦理风险具体表现样态和应当遵守的科技伦理规范。在风险类型层面,可由监管机构、科技伦理委员会周期性地判断自动驾驶领域的科技伦理风险变化,监管机构主要在产业政策层面引导自动驾驶应用技术优先采取符合科技伦理规范要求的技术方案,明确自动驾驶技术创新的良性发展方向;科技伦理委员会则根据自动驾驶产业试点情况、国内外产业应用案例以及科技伦理理论研究成果,周期性地更新可适用于自动驾驶领域的场景导向性的科技伦理规范。同时,针对自动驾驶应用可能面临的复杂交通路况,监管机构和科技伦理委员会可以采取行业指导规范、技术应用实践范例等方式联合发布技术应用指导文件,列举在车辆交会,高速公路、窄道行车等常见行车情形下,符合科技伦理标准的行车路线和行车方式。
第二,自动驾驶科技伦理风险发现识别机制主要是根据自动驾驶的行车路线、行车方式等具体应用场景因素,发现、识别和确认具体的科技伦理风险。科技伦理审查的制度功能是作出道德伦理判断,但该项治理机制的制度化并不应被僵化地理解为所有的科技创新活动均需要进行事前审查,有且仅有涉及敏感研究领域的科技创新活动才有必要进行强制审查。自动驾驶领域的科技创新活动并不当然都需要进行强制性的科技伦理审查,因为只有部分技术应用场景可能涉及《科技伦理审查办法(试行)》第四条“研究内容涉及科技伦理敏感领域的”这一要求。在自动驾驶领域,“敏感领域”主要是指科技创新活动涉及生命安全和交通安全。例如,科技创新活动改变了既有的自动驾驶系统决策能力和智能化水平,此时则有必要针对决策能力提升的实际效果和影响范围进行科技伦理审查,判断是否存在严重的科技伦理风险。当然,倘若科技创新活动并不涉及决策能力部分,仅仅涉及车内乘客乘坐舒适度优化等功能,则没有必要进行强制性的科技伦理审查。当然,这一环节的科技伦理治理还包括其他形式的治理机制,例如,在自动驾驶科技创新活动之初就开展科技伦理风险评估,这种伦理嵌入模式能够避免科技创新主体在应用之前再次调整技术方案所支付的额外研发费用。
第三,自动驾驶科技伦理风险反馈应对机制主要是根据自动驾驶科技创新活动存在的科技伦理风险样态以及上一个治理环节所作出的道德判断、技术整改建议,对自动驾驶技术方案进行调整和优化。既有的科技伦理治理研究大多忽视了技术方案调整和伦理风险识别评估结果之间的关联性。在强制科技伦理审查情形下,审查结果通常与自动驾驶的安全性密切相关,属于科技伦理敏感领域,审查专家所形成的审查建议和意见应当作为科技创新主体调整技术方案的重要依据。诚然,科技伦理规范不具有强制性,但是在强制审查情形下,科技伦理原则与法律基本原则内容交叉,科技创新主体是否根据审查建议变动原有的技术方案,能够直接作为是否存在主观过错的依据。在自愿科技伦理审查情形下,因为并不涉及敏感领域的科技伦理风险,相应的审查结果和优化建议仅需反馈至科技创新主体即可,由其结合自身状况判断是否应当按照优化建议调整相应的技术方案。
(三)第三步:自动驾驶科技伦理风险的衔接式治理
在自动驾驶领域,因为核心的科技伦理风险是“行车安全”“生命安全”,所以科技伦理治理机制与其他治理机制的衔接关键在于安全风险的识别、评估、预防和控制。此时,法律、技术和市场治理机制的调整对象均涉及不同层面的安全风险类型,如:法律治理机制侧重防范义务主体未能履行安全保障义务导致的人身损害风险;技术治理机制侧重防范因技术漏洞、系统设计缺陷等技术原因导致的自动驾驶系统不可靠风险;市场治理机制则侧重预防行业企业因过分追求技术领先优势,在技术尚不成熟的情况下,采取简化安全管理流程、过早投入实践试点应用等措施,进而导致整个行业陷入竞争失序的风险。然而,这些治理机制的具体内容具有一定的相似性:法律治理机制涉及网络安全、数据安全乃至算法安全评估机制,如《中华人民共和国网络安全法》第二十六条规定网络运营者应当开展安全风险评估等活动,《互联网信息服务算法推荐管理规定》第七条规定算法推荐服务提供者应当建立健全安全评估监测管理机制等。技术治理机制则涉及人工智能、自动驾驶相关的国家技术标准,这些技术标准大多也涉及安全风险的评估事项。如《智能网联汽车运行安全测试技术要求》(GB/T 43766—2024)“5.2测试要求”提及测试主体应当提交测试报告,报告内容涉及测试车辆、测试道路、测试项目等与风险评估相关事项。至于市场治理机制,由于自动驾驶技术尚属于新兴产业,成熟的商业实践模式、行业通用标准、行业自律标准尚未形成,但是,考虑到市场治理的目标是以有序的竞争状态规范技术应用方式,未来的行业自律等具体治理机制理应将安全风险作为自律规范的主要内容。
因此,自动驾驶科技伦理治理机制与其他治理机制的衔接方式应当是安全风险的一体化评估,将自动驾驶各类安全风险因素统一纳入技术治理框架内,避免就同一治理目标重复评估。具体而言,需要遵循三个基本原则:其一,业已评估的安全风险评估类型不再重新评估,可以直接作为其他安全风险评估的结论,如科技伦理审查的结果可以作为算法安全风险评估制度的衡量标准。其二,各类治理机制所延伸出的安全风险评估不就同一事项进行多次评估,如国家技术标准已经涉及科技伦理风险评估事项时,就没有必要再就相同伦理事项进行科技伦理审查。其三,以定期安全风险评估为主,不定期安全风险评估为辅。为了避免科技创新主体频繁陷入冗余的风险评估活动中,应当仅在自动驾驶技术产生实质性创新或对行车安全产生实质性影响时才需要进行不定期的安全风险评估。
当然,除了安全风险一体化评估之外,也存在其他治理机制衔接方式。如部分学者认为,自动驾驶算法的伦理治理应当“侧重通过企业和行业的自律管理来落实”,如通过伦理委员会、行业自律公约、伦理标准与认证、伦理嵌入设计、算法伦理的技术和管理工具、算法伦理奖励等机制实现全生命周期的伦理治理效果。就自动驾驶治理目标而言,各类安全风险的有效控制是首要事项,故而如何整合并建构高效的安全风险评估机制尤为关键。美国国家标准与技术研究院在2023年发布的《人工智能风险管理框架》采用的是一体化风险评估逻辑,并认为人工智能风险呈现出隐私风险、数据安全风险、软硬件安全风险等具体风险重叠的样态。在自动驾驶安全风险评估领域,事前区分伦理风险、技术风险等风险类型是为了更好地确认各类安全风险的轻重缓急,进而为科技创新主体、监管机构等治理主体的后续行动提供相应的规范指引。
结语
无论是人工智能科技创新,抑或未来其他信息技术创新,科技伦理治理均是解决这些技术创新背后各类技术风险的重要治理工具。但是,理论研究和制度实践不应当将科技伦理治理的实际功能无限放大。科技伦理终究属于一种伦理规范,与法律规范存在实质性差异。因此,在建构人工智能技术治理体系的过程中,理应明确各类治理工具的治理功能和作用机制,针对性地设置具体的治理机制,强化各类治理机制之间的内在衔接与治理逻辑的统一。毕竟风险治理是一项综合性的社会治理活动,法律、技术、伦理和市场等治理工具在面向新兴技术风险时,客观上确实存在各自的功能局限性。只有遵循统一化的治理逻辑,才能确保各类治理工具能够充分发挥应有的治理功能。对于科技伦理治理而言,核心的治理效果是引导科技创新活动良性健康发展,督促科研人员自觉地遵守科技伦理规范。所以,科技伦理治理的制度化嵌入路径需要探索更加多元化的伦理观念引导模式,而不是仅仅限于科技伦理审查机制,以促进风险治理逻辑层面的制度协调。
原文刊载于《法治社会》2024年第5期,感谢微信公众号“法治社会期刊”授权转载。