【作者】李学尧
【内容提要】
人工智能伦理制度的跨学科建构:复杂适应系统的思路
李学尧 上海交通大学凯原法学院教授、上海交通大学中国法与社会研究院企划委员
摘要:如何让人工智能伦理从道德原则走向实践,是全球社会各界的关注重点。对此,伦理学、法学、经济学、公共管理学以及社会学都提供了丰富的理论工具。其中,原则主义是人工智能伦理领域的主导性方法论,它具有高度共识性、灵活性的优势,但也存在基于绝对理性假设等一系列问题。通过融合进化心理学、社会技术系统理论、行为法经济学,构建“复杂适应系统伦理学”,可提供跨学科理论有效整合,具有动态适应性、技术支持性,实现多层次和多主体参与的理论框架。法哲学内部,包括卢曼系统论法学关于法律原则的已有讨论也可以为科技伦理研究和制度建构所借鉴。
关键词:原则主义;复杂适应系统;进化心理学;行为法经济学;社会技术系统理论
对于各国人工智能的监管部门来说,如何将人工智能伦理从道德原则框架转化为可操作、可预期、可技术化的伦理规范,是当下一个亟待解决的实务问题。[②]作为科技伦理的主导性理论和政策制定指引,原则主义已经难以完全应对技术的快速发展,需要根据人工智能的技术特征以及价值对齐、伦理审计等实践进行改造。[③]《原则主义在人工智能伦理领域的应用、困境及其超越》一文对原则主义理论在人工智能伦理领域应用的现状、困境做了展开阐述,并提出了运用进化心理学和社会系统理论对原则主义进行理论改造的设想。[④]下文,除了对前述思路展开阐述之外,还将进一步融合行为法经济学、复杂适应系统(CAS)[⑤]等理论,初步构建“复杂适应系统伦理学”,以回应当下人工智能伦理制度构建过程中实务可操作和理论融贯之间的逻辑自洽问题。
一、原则主义理论框架再厘定
原则主义由汤姆·博尚普和詹姆斯·柴德雷斯于20世纪70年代末提出,[⑥]是生物医学伦理学作为一门学科形成的理论标准以及一种重要的方法论框架。现已被广泛应用于人工智能伦理和生物医学伦理的学术研究和具体实践。[⑦]全世界各种人工智能伦理原则框架,虽然表述的形式五花八门,[⑧]但其方法论体系仍然符合原则主义的特性。可以说,最近几年人工智能伦理的理论和制度发展,基本上都在原则主义理论框架内进行。
第一,多元原则并行的非基础主义框架。原则主义没有为每个具体原则提供绝对的哲学基础,也没有尝试证明这些原则在所有情况下都有最高效力。这意味着这些原则可以适应不同情境进行权衡和调整,而不需要在哲学上为每个原则辩护其普遍性。当下世界上各种人工智能伦理原则框架也符合这一特征。社会各界所列举的相关伦理原则,基本上都同时包含了道义论、结果论以及美德伦理等伦理学派的哲学基础。[⑨]比如,增进人类福祉、准确性来自功利主义,可解释性、保护隐私、可追责来自道义论,而可信、负责任的要求则来自美德伦理。[⑩]至于反偏私和公平、透明度、参与性等规范则为各种伦理原则共享。[11]
第二,基于普适性的公共道德论立场。原则主义虽突出其非基础主义的特征,但又运用公共道德论来论证其普适性特征。[12]在关于人工智能伦理的讨论中,许多原则和标准的起草说明都是从普适性角度出发的。例如,欧盟委员会人工智能高级专家组(AI HLEG)编制的《人工智能道德准则》,联合国教科文组织、美国等发布的人工智能伦理规范都试图制定普遍适用的伦理框架,声称隐私保护、公正和透明这些原则适用于全球范围的人工智能开发和应用,[13]是跨文化、跨国界的通用标准。[14]这与“公共道德论”高度一致。
第三,不设等级序列、保持适应性的反思平衡机制。在原则主义框架内,原则和原则之间没有固定的等级序列,通过反思平衡机制在具体情况中决定如何权衡不同的伦理考量。[15]这一过程并不需要严格依赖外部的规则或理论,而是通过对具体案例和道德原则的互动修正,逐渐趋于伦理平衡。这与法学中的主流理论,比如分析法学的思路大不相同。后者主张通过逻辑分析来确保法律体系的确定性,即使承认法律原则是高于具体规则的权威性出发点,[16]也不认为其具备规则所具有的事实要件和效果要件的对称性,因此在适用中只是对规则的补充。[17]在适用过程中,应该通过普遍性条件、比例原则与体系性要求的形式条件,来实现对原则在法律适用实践中的限制。[18]
第四,强调实际问题导向的行为指向。原则主义关注的是如何在复杂、多变的环境中实际应用这些原则,旨在为复杂的道德问题提供指导,而不是抽象的理论辩论,即“原则主义并不为注重理论自洽性的学院派哲学家、伦理学家所设计”。[19]人工智能伦理原则通常是为了应对实际问题和技术挑战而设计的。例如隐私与数据保护就是为了应对大数据、机器学习等技术发展对用户隐私的挑战;防止算法偏见和公正、透明等要求就是为了避免人工智能决策中出现的偏见与歧视现象。这种实践指向符合原则主义的“实际问题导向”特征。
二、进化心理学的修正思路
进化心理学[20]通过研究人类道德行为的进化机制,可以为原则主义理论提供支持,帮助解决其在文化多样性、普适性和道德直觉上的一些关键问题,增强其在应对现实道德挑战时的有效性。[21]
第一,经由解释原则的进化基础揭示道德原则的来源。自主、不伤害、行善、公正四项核心原则在不同文化中如何适用、为何具有普遍性,一直是伦理学争论的焦点。进化心理学通过研究道德行为的进化基础,能够解释这些原则在人类历史中的普遍性来源,从而成为原则主义理论的背景。例如,自主原则可被解释为在人类进化过程中,个体的决策自主性和对自身命运的控制,帮助增加生存机会,形成了一种进化上的优势;不伤害和行善可被视为群体合作的必要性,合作关系的维护对群体生存至关重要,因此,减少伤害和互助行为(即行善)是进化过程中人类得以形成稳定社会结构的基础;公正原则则可以通过“互惠性”行为解释。进化心理学研究还表明,公平的行为有助于增强社会合作,减少群体冲突,最终提高群体整体的生存能力。[22]可以重点运用乔纳森·海特的“道德基础理论”来解释为何需要以及为何可以构筑一个融合道义论、结果论以及美德伦理等的公共道德框架。[23]
第二,基于进化的道德多样性解释处理文化多样性问题。原则主义理论的一大挑战是处理不同文化背景下的道德多样性。进化心理学可以帮助其更好地理解和应对道德多样性,提供一个进化基础上的解释框架。进化心理学承认,人类在进化过程中适应了不同的生态和社会环境,这导致了不同文化的产生。文化中的差异可以被解释为不同环境下的适应策略。[24]例如,一些文化更注重集体利益,可能是因为该社会在历史上需要更强的集体协调才能生存。而这种适应性策略在其他文化中可能表现为更注重个体自主。[25]
第三,通过对道德直觉的理解强化反思平衡机制。反思平衡机制依赖于人们在具体情境中通过反思和理性权衡来解决道德冲突。道德直觉和情感在道德判断中扮演了重要角色,这正是进化心理学的研究重点之一。进化心理学认为,道德直觉源自人类长期进化中形成的快速反应机制,这种机制帮助人类在复杂环境中做出迅速决策。进化心理学表明,道德直觉(如对不公平行为的本能厌恶)是基于进化适应的情感反应,能够帮助人类迅速识别威胁群体合作或群体稳定的行为。[26]这种对道德直觉的理解可以帮助原则主义增强反思平衡机制的理论解释力,承认道德情感在日常道德判断中的作用,使其更多考虑情感和直觉在道德决策中的作用,而不仅仅依赖于纯粹理性的反思。
第四,增强普适性:解释为什么某些道德原则跨文化共享。原则主义强调其道德原则具有普适性,但在面对多元文化背景时,这一主张经常受到挑战。[27]进化心理学显示,一些基本的道德行为,如合作、反欺骗、信任、惩罚不公等,是在人类进化过程中通过自然选择而保留下来的。这些行为使得人类群体能够维持稳定和合作,这也解释了为何这些行为可以跨文化存在。[28]进化心理学帮助解释为什么某些道德原则能够跨文化适用,从而强化了原则主义的普适性主张。这可以使得原则主义在全球伦理和跨文化伦理讨论中能够更具说服力。
第五,解释道德变迁与适应:动态调整道德原则。人类社会不断演化,伦理规范也会随着社会、技术和环境的变化而发生变迁。进化心理学能够为道德变迁提供解释框架,帮助原则主义在面对快速变化的社会时保持灵活性和适应性。例如,人工智能、基因编辑等新兴技术带来了新的伦理挑战,进化心理学可以帮助原则主义理解道德如何适应这些新变化。又如,技术变革改变了人与人之间的合作方式和道德互动模式,这可能需要重新解释和适应传统的道德原则。通过进化心理学对社会变迁的动态理解,[29]原则主义可以发展出更加灵活的道德框架,适应不断变化的环境和技术挑战。
三、社会技术系统理论的修正思路
社会技术系统理论强调技术系统与社会系统的相互作用和协调。[30]随着人工智能和机器学习技术的发展,机器不再仅仅是工具,它们的行为和决策能力越来越接近于“自主性”系统,这就需要伦理学理论,包括原则主义,重新考虑这些机器在社会技术系统中的角色。[31]此处,仅对以机器行为学[32]为主要脉络的社会技术系统理论进行理论展开。
第一,重新定义自主原则。自主原则侧重于保护个体的自主决策权,但随着人工智能系统的广泛应用,机器决策开始影响人类的决策自主权。[33]在社会技术系统中,机器不仅承担信息处理和数据分析任务,还能够做出复杂决策。这种情况下,“自主性”不再仅仅属于人类,而是扩展到人机协作的场景中。[34]可以通过社会技术系统理论重新定义自主原则,将其从人类的自主权扩展为人机之间的协作自主性。[35]机器行为学可以帮助理解机器在决策过程中的角色与限制,并要求人工智能系统在不损害人类自主权的前提下进行辅助性决策。比如,自动驾驶汽车系统通过自身的传感器和算法进行实时决策,但在紧急情况下,系统应设计成允许人类乘客做出最终决定。这种人机协作的自主性应成为原则主义中重新定义自主原则的一部分。
第二,强化透明性和可解释性。透明性和可解释性的伦理原则在人工智能系统中非常重要。机器心理学可以帮助我们理解机器的决策过程,并开发出更透明和可解释的系统,[36]用户能够清楚知道机器为什么做出某个决策。[37]这与原则主义中的可解释性和透明性原则相呼应,使这些原则能够适应新的技术环境。比如,在医疗诊断中,人工智能模型提供的诊断建议必须透明并且可以解释,以便医生能够理解模型得出结论的依据,并根据患者的实际情况做出最终决策。
第三,改造公平与反偏私原则。公平与反偏私原则在人工智能系统中极其重要,尤其是在数据驱动的算法中。机器行为学能够帮助理解机器在复杂环境中的行为模式,并识别出算法可能产生的系统性偏见。[38]社会技术系统理论与机器行为学相结合,可以使原则主义更加深入地分析和识别人工智能系统中的偏见问题。通过对机器行为的分析,系统设计者能够在开发阶段就识别和消除偏见,确保系统的公平性。比如,面向招聘的人工智能系统可能会基于过去的数据做出带有性别或种族偏见的决策,通过机器行为学的分析,设计者可以识别这些偏见并采取消除措施,确保人工智能决策的公平性。
第四,强调公正原则与社会技术系统的协同。社会技术系统理论强调技术与社会系统的协同发展,而公正原则也需要在这种协同中得到新的解释。机器行为学能够帮助我们理解机器在社会系统中与人类互动时的公正性问题。公正原则应扩展到包括机器在内的复杂社会技术系统中,确保机器在与人类协作时不会造成不公平的后果。机器心理学可以帮助设计人工智能系统,使其在处理社会问题时考虑到不同利益群体的公平需求。[39]比如,在城市规划和资源分配的人工智能系统中,必须确保算法考虑各个社会群体的不同需求,避免因技术因素引发社会不公。这种公正性不再仅仅适用于人类个体,而是适用于人类与机器系统之间的协同合作。
第五,安全性和可追责原则:机器行为中的责任分配。在社会技术系统中,机器承担越来越多的责任,这带来了安全性和可追责性方面的新挑战。机器行为学能够帮助识别和预测机器行为的潜在风险,并制定相应的责任分配机制。安全性和可追责原则应通过社会技术系统理论进行调整,确保在复杂的技术系统中能够明确责任的分配。尤其是在人工智能系统的决策可能引发不良后果时,机器行为学可以帮助设计出责任分配机制,明确如何在事故或错误决策发生时追究责任。[40]比如,自动驾驶汽车发生交通事故时,应该明确责任是由制造商、软件设计者、还是车辆本身负责。机器行为学可以帮助在设计阶段预测系统可能出现的错误,并据此制定适当的责任划分机制。
第六,增强参与性,实现人机互动中的社会合作。参与性原则要求在涉及伦理决策的系统中,利益相关方应有机会参与决策过程。在人工智能系统的设计和部署中,机器行为学可以帮助理解如何更好地让用户与系统互动,并参与系统的开发和反馈。用户不仅应作为人工智能系统的被动使用者,还应通过反馈机制参与到系统设计和运行中。[41]比如,智能医疗平台的设计可以鼓励患者参与数据反馈与决策过程,使系统能够更好地为患者提供个性化服务。
四、行为法经济学的修正思路
行为法经济学是一门融合了行为经济学和法律分析的学科,关注人类在决策过程中存在的认知偏差和非理性行为,以及这些行为如何影响法律制度和政策的制定。[42]它可以为人工智能伦理制度的建构提供新的视角,使其更加贴近人类的实际行为和社会需求。
第一,通过理解和预防认知偏差,增强反思平衡机制的现实性。传统的原则主义中的反思平衡机制可能过于理想化,忽视了人类行为的复杂性。[43]生物医学和人工智能伦理的四大伦理原则——尊重自主性、行善、不伤害和公平——是基于规范伦理学和法律学的完全理性预设。然而,行为法经济学的研究表明,人类决策往往受到各种认知偏差和社会情境的影响。[44]有鉴于此,在应用于人工智能伦理时,行为法经济学可以加入有限理性对行为偏差的反思。例如,人工智能系统设计者可能低估或忽视用户的认知偏差,如过度自信、缺乏注意力或信息过载。这些行为偏差会影响人工智能决策过程中的公平性或自主性。[45]通过考虑行为法经济学,反思平衡机制可以更加动态,反复调整以适应用户的行为模式,确保伦理原则在实际操作中不被偏差所削弱。[46]此外,行为法经济学中的“助推”(nudge)理论可以帮助改进人工智能系统中的决策架构。[47]人工智能系统可以被设计为在不剥夺用户选择自由的情况下,引导用户做出更有利于自身和社会的决策。
第二,丰富公共道德理论的实证基础,增强其解释力和实操性。行为法经济学强调了人类在遵守规则时可能面临的实际困难和阻碍。[48]认识到这些挑战,伦理制度的设计者可以调整原则的表达方式和实施方法,使其更易于被理解和执行。例如,在强调公平和非歧视原则时,可以提供具体的操作指南和案例分析,帮助人工智能开发者和使用者更好地践行这些原则。通过行为法经济学的研究,可以了解公众在面对人工智能伦理问题时的真实态度和反应。这有助于制定反映社会共识的伦理制度,提高其社会接受度和合法性。
第三,更有效地回应技术迭代带来制度变革需求,有利于制定更有效的法律和政策。行为法经济学与公共道德理论的结合可以在以下几个方面提升人工智能伦理制度的可操作性:一是,集体行为与责任分散的应对。人工智能系统经常嵌入复杂的社会和组织环境中,责任可能被分散在开发者、企业、用户和监管机构之间。[49]行为法经济学可以帮助公共道德理论理解并解决“责任扩散”(diffusion of responsibility)问题。[50]在人工智能伦理中,尽管各方都有一定的责任,但由于个体偏见和集体行为的复杂性,可能没有任何一方感到应当完全负责。[51]通过行为法经济学的洞察,可以设计出更清晰的责任归属框架,确保集体中的每个行为者都能够更好地承担道德和法律责任。二是,设计符合公共道德的人工智能系统。行为法经济学可以帮助理解不同社会群体的道德偏好和行为习惯,进而根据这些公共道德预期来设计人工智能系统。例如,金融领域中的人工智能可以通过研究消费者行为(如对风险的态度和认知偏差)来设计符合公共道德的产品和服务,确保人工智能系统在市场中的使用不会损害弱势群体的权益或加剧社会不公。三是,风险感知与公共道德。公共道德理论在人工智能伦理中的一个核心议题是如何公平分配风险和收益。[52]行为法经济学可以帮助研究公众如何感知风险和利益,避免出现人工智能系统中的不公平现象。[53]例如,自动驾驶技术引发了大量关于公共安全和个人责任的问题,行为法经济学能够通过对不同群体的风险感知和选择偏好的研究,帮助设计合理的政策框架,使得人工智能技术在实际应用中更好地平衡公共道德诉求和个体利益。
五、进化心理学、社会技术系统理论及行为法经济学的遗留问题
通过进化心理学、社会技术系统理论以及行为法经济学对原则主义的改造,能够解决传统原则主义在面对文化多样性、技术变革和实际决策复杂性时的许多问题。然而,即使引入这些跨学科的视角,依然会遗留一些问题。
第一,复杂系统动态变化中不可预测和非线性的伦理冲突。现代社会技术系统越来越复杂,运行中充满了不确定性和系统性风险,尤其在人工智能、金融技术等领域。这些系统中的小变动可能引发巨大影响[54];相关的问题往往是多层次、多因素的,并且会动态变化。[55]随着人工智能系统在医疗、金融、交通等领域的快速应用,新的伦理冲突不断涌现,原则主义的固定原则框架难以完全适应这些复杂和动态的变化。机器行为学尽管可以帮助应对一些具体问题,但仍以局部问题为主,缺乏系统性视角来处理跨系统、跨领域的道德问题和风险。[56]进化心理学虽可以解释一些核心道德原则的进化基础,但其不能有效应对快速技术变革中的新兴伦理问题。行为法经济学的有限理性也无法解释道德决策面临高度的不确定性和非线性。
第二,非基础主义的原则间优先性问题无法解决。虽然反思平衡机制允许在具体情境中调和不同原则的冲突,但在实际操作中,某些原则的优先性可能难以清晰定义,导致道德决策的主观性和不一致性。例如,在自主权和公共利益冲突的情况下,如何在保障个人隐私的同时推动社会福祉的最大化,这种复杂的平衡可能会因为规则模糊性导致决策的主观性,最终无法避免“伦理漂白”问题。[57]行为法经济学的融入能够帮助理解人类在非理性情况下的行为模式,但对伦理原则的优先排序并没有提供明确的指导。因此,虽然通过行为法经济学可以优化个别伦理决策的应用,但仍然缺乏关于原则优先性的一致标准。[58]
第三,文化多样性与价值冲突持续存在。进化心理学虽然能够解释一些道德原则在人类进化中的普遍性,但不同文化背景下的价值观仍然会产生冲突。例如,西方的个体主义价值观和东方的集体主义文化在人工智能伦理中的表现方式可能差异巨大,原则主义的普适性在这种多元文化背景下可能依然难以完全满足各方需求。虽然进化心理学提供了一个进化上的普遍性框架,但它并不能完全消除不同文化之间的价值冲突,尤其是在全球化背景下,如何在多文化背景中形成一套有效的伦理原则仍然是未解决的难题。[59]
第四,技术迭代发展速度导致伦理指导的滞后。技术的发展速度往往快于伦理和法律的完善速度,导致伦理原则无法及时应对新兴技术带来的挑战。如人工智能、自主武器、基因编辑等领域,传统的道德原则可能无法涵盖其复杂性和风险,从而留下了诸多伦理空白。原则主义主要依赖具体情景中的案例分析来进行行为指导,缺乏快速适应新技术的机制,可能导致伦理指导的滞后。
第五,系统性风险与集体责任。复杂社会技术系统中的风险往往是系统性的,涉及多方主体,原则主义更多关注个体和直接行为,对系统性、全球性风险的道德应对策略缺乏深入探讨。当多个主体共同参与一个系统时,出现问题时如何分配责任成为难题。[60]行为法经济学、社会系统理论尽管可以通过因果关系识别等定量方法来确定事实性“责任”,但其仍然往往是局部的、个别的、情景的,在适用中需要不断打上“理论补丁”。[61]
六、复杂适应系统理论的统合思路
为了应对上述遗留问题,可以尝试导入具有生成论特征的复杂适应系统理论(Complex Adaptive Systems Theory)来进行理论融合。[62]复杂适应系统理论是用于理解由许多相互作用的个体组成的系统如何通过自我组织、非线性反馈和适应机制来形成整体行为的理论框架。[63]它最突出的特性表现为突现性(涌现性)、适应性和多样性。[64]运用模拟仿真等技术,复杂适应系统理论被广泛应用于应急管理、城市规划、交通管制、舆论风险预测和网络安全等领域。[65]在人工智能伦理领域,它可以提供一个更全面和动态的框架,统合进化心理学、社会技术系统理论以及行为法经济学的优势,使原则主义更加适应复杂、多变和跨系统的伦理情境。[66]具体优势可以概括为以下六点。
第一,以动态适应性应对伦理冲突的演化过程。复杂适应系统理论强调系统的自适应性和动态变化能力。原则主义在面对复杂系统中的伦理冲突时,可以通过引入复杂系统中的自适应机制,使伦理决策过程更加灵活。例如,基于复杂系统的自适应机制,伦理决策可以根据环境的变化不断调整不同原则之间的优先次序,避免固定框架的僵化。[67]在人工智能伦理中,面对迅速变化的社会需求和技术发展,可以基于复杂系统理论设计动态调整的道德框架,使得决策者在不同阶段和环境下灵活地适应新的伦理挑战。[68]例如,随着人工智能对自主性的影响,需重新定义和理解“尊重自主性”的含义。[69]
第二,以多层次决策框架应对原则优先性的模糊。复杂适应系统理论强调多层次、多因素的系统运行。因此,伦理决策不应仅仅依赖单一层次的原则权衡,而是可以在不同的系统层次(如个体、群体、社会、技术)中分别设定原则的优先性。[70]这样可以更清晰地定义不同层次上的伦理优先顺序,解决原则主义在不同情境中优先性模糊的问题。[71]此外,通过强调多方协商与参与,建立相关的商谈平台,汇集各利益相关者的意见,协商制定和修改伦理规范。[72]
第三,以系统性风险评估整合行为法经济学与社会技术系统理论。复杂适应系统理论能够协助原则主义建构一套适合符合复杂社会的风险评估机制,用以处理复杂系统中的非线性关系和系统性风险,以更好地应对系统性风险与伦理不确定性。例如,通过升级行为法经济学中的风险感知模型,结合复杂系统理论在金融、医疗等高风险领域开发出具备系统性风险防控能力的伦理决策框架。[73]
第四,以多元文化调适与协同进化应对文化多样性冲突。复杂系统理论中的协同进化概念可以用于解释不同文化背景下的道德规范如何通过交互和协作形成动态平衡。[74]通过复杂适应系统理论,原则主义可以设计出具有协同进化特征的道德框架,使不同文化背景下的伦理规范能够相互适应和调整,最终形成相对稳定的伦理共识。[75]在全球范围内的人工智能伦理治理中,复杂系统理论可以帮助不同文化、法律体系和道德价值观之间形成更具弹性的伦理协同机制,避免价值冲突导致的僵化决策。[76]
第五,以多层次的理论整合回应实践中穿透性理论需要。复杂适应系统的人工智能伦理理论框架具有统合微观、中观和宏观等多维视角的优势,从而能够回应人工智能伦理实践中对有效贯穿“原则—规则—适用”的穿透性理论的需要。在微观层次(个体),可以运用进化心理学和认知神经科学帮助理解个体的道德决策过程和行为倾向[77];在中观层次(组织与技术),可以运用行为法经济学和社会技术系统分析组织行为、技术发展与社会影响[78];在宏观层次(社会制度),则运用复杂适应系统理论和计算社会科学的已有研究成就指导伦理制度的整体设计和动态演化。
第六,多要素的理论机制。这个理论机制既包括代理人、互动机制、适应和学习机制,也包括合规行为激励机制、违规行为约束机制、责任主体认定机制、适应性立法机制。其中,代理人包括个人(开发者、用户)、组织(企业、政府)、技术实体(人工智能系统);互动机制的内容主要指代理人之间通过社会、技术、法律和经济等方式互动,形成复杂的网络;适应与学习机制主要是指代理人根据反馈和环境变化调整行为,伦理制度也随之演化。[79]
总而言之,通过复杂适应系统理论的统合,进化心理学、社会技术系统理论和行为法经济学的改造思路可以得到进一步深化和协调。复杂适应系统理论能够解决原则主义在应对动态伦理冲突、系统性风险、多元文化冲突等方面遗留的问题,增强其在复杂社会技术环境中的适应性和灵活性。[80]
结语:如何寻找卢曼系统论法学在人工智能伦理研究中的位置?
行文至此,需要回答一个问题:为什么不使用同样采用跨学科和复杂演化视角、在法学理论方面已有成熟研究框架的卢曼系统论法学理论[81],转而运用不常被法学和伦理学借用的复杂适应系统理论呢?主要原因有三:一是,卢曼的理论旨在解释社会系统的结构和功能,提供一种宏观的社会学分析工具。[82]原则主义旨在指导个体层面的道德决策,关注具体的伦理困境和实践应用。[83]由于两者关注的层面不同,卢曼的理论缺乏对个体道德决策的直接指导,不适合用于改造以道德原则为核心的原则主义。[84]二是,卢曼理论将法律与道德视为两个独立的系统,法律系统的运行独立于道德系统。原则主义将道德原则作为决策的核心,认为道德对法律和实践具有直接的指导作用。这种对道德与法律关系的不同理解,使得卢曼的理论难以直接用于增强原则主义对道德决策的指导。[85]三是,卢曼的系统理论是描述性的,而非规范性的。它解释了系统如何运作,但不提供应当如何行动的道德指导。[86]原则主义需要具体的道德规范来指导实践,因此卢曼的理论在这方面无法满足其需求。
上述所指出的问题并不意味着卢曼的系统论法学在人工智能伦理制度建构中就毫无作为。将复杂应用系统理论运用到人工智能伦理领域,需要借用卢曼系统论法学运用系统思维讨论基本权利、道德以及程序等方面的已有成果。比如,关于在道德判断中如何纳入系统层面的考虑,如何应对复杂性和不确定性,如何考虑多层次、多因素的影响;[87]帮助理解道德原则如何在复杂的社会系统中发挥作用,以及如何在不同系统之间进行沟通和协调。[88]
应用伦理学中围绕原则主义的理论争论及其问题意识,在某种意义上就是法学的一个平行宇宙。[89]比如宪法中列举的基本权利及其实现机制和原则主义机制就很相似。法解释学上的权利衡量、比例原则、类比推理、后果取向等等,都是法律系统内部实现基本权利或者基本原则的具体技术方案。[90]法律内部规范为应对外部环境的复杂性,需要不断演化,并生成化约外部复杂性的内部复杂性。而宪法意义上的基本权利和原则主义的四项核心原则,都不过是规范系统适应外部环境变化而在内部形成的探测和反射装置。因此,法哲学层面的相关思考成果,自然都可以在应用伦理学,特别是科技伦理领域复制应用。而卢曼的系统法学理论超越了德沃金、阿列克西等人将原则视为价值因此可以权衡的适用进路,认为原则和规则只是抽象程度不同的约束法律决定制作的前提,从而大大地拓宽了法律原则的适用性视角。[91]类似的系统论法学理论成果,也都完全可以为复杂适用系统理论在人工智能伦理制度构建中的应用中提供直接而深刻的借鉴。
原文刊载于《浙江学刊》2024年第6期,感谢作者授权推送!
[①] 本文为国家重点研发计划“社会治理与智慧社会科技支撑”重点专项项目“基于人案物大数据融合的司法管理关键技术与装备研究”项目、国家社会科学基金重点项目“支持全面创新的基础法律制度研究”(22AFX003)的阶段性成果。
作者感谢同事宾凯、贾开和徐舒浩,以及方可馨同学在本文写作中提供的文字性协助。感谢季卫东、胡正坤、周辉、宋华琳、丁晓东、泮伟江和付娜等师友提供的各类智识支持。
[②] 相关理论综述参见吴红、杜严勇:《人工智能伦理治理:从原则到行动》,《自然辩证法研究》2021年第4期; Ramak Molavi Vasse, “The Ethical Guidelines forTrustworthy AI :A Procrastination of Effective LawEnforcement,” Computer Law Review International, Vol. 20, 2019, pp.129-136. 相关理论阐述参见季卫东:《人工智能开发的理念、法律以及政策》,载《东方法学》2019年第5期。
[③] 关于原则主义作为生物医学伦理、人工智能伦理等科技伦理领域主流理论及其受到的挑战综述可以参见白惠仁:《科技伦理中的原则主义》,《道德与文明》2023年第1期;汪琛:《医疗人工智能的原则主义审思及治理探析》,《中国医学伦理学》2024年第9期。
[④] 李学尧:《原则主义在人工智能伦理领域的应用、反思及其超越》,《江淮论坛》2024年第5期。
[⑤] 复杂适应系统理论是复杂系统理论的一种。关于复杂系统的最新理论综述可以参见汪寿阳、胡毅、熊熊、王曙明、张维:《复杂系统管理理论与方法研究》,《管理科学学报》2021年第8期。
[⑥] T. L. Beauchamp & J. F. Childress, Principlesof Biomedical Ethics , Oxford University Press, 2019.
[⑦] 较新的文献综述可以参见L. Floridi & J. Cowls, “A Unified Framework of FivePrinciples for AI in Society,” Harvard Data Science Review, Vol. 1,2019, pp.5-17.
[⑧] 关于人工智能伦理原则内容的变迁发展,较为周全的综述可以参见宋华琳:《法治视野下的人工智能伦理规范建构》,《数字法治》2023年第6期。
[⑨] B. Mittelstadt, “Principles Alone CannotGuarantee Ethical AI,” Nature Machine Intelligence, Vol. 1, 2019, pp.501-507.
[⑩] 美德伦理在科技伦理领域应用可能性的法学探讨文献可以参见王凌皞:《基因筛查违背伦理道德吗?——从受益原则到亲自美德伦理》,《法制与社会发展》2023年第6期。
[11] K.D. Clouser & B. Gert, “A Critique of Principlism,” The Journal ofMedicine and Philosophy, Vol. 15, 1990, pp. 219-236.
[12] James Childress:《伦理原则主义:丘卓斯的回答》,谢文野等译,《中国医学伦理学》2019年第4期。
[13] 宋华琳:《法治视野下的人工智能伦理规范建构》,《数字法治》2023年第6期。
[14] D.R. Gordon, “Tenacious Sumptions in Western Medicine,” Biomedicine Examined,Vol. 13, 1988, pp. 19-56.
[15] J.D. Arras, “The Way We Reason Now: Reflective Equilibrium in Bioethics,” TheOxford Handbook of Bioethics, 2007, pp. 46-71.
[16] 彭诚信:《从法律原则到个案规范——阿列克西原则理论的民法应用》,《法学研究》2014年第4期。
[17] 陈林林:《基于法律原则裁判》,《法学研究》2006年第3期。
[18] 陈景辉:《原则、自由裁量与依法裁判》,《法学研究》2006年第5期。
[19] L.Vaughn, Bioethics: Principles, Issues, and Cases, Oxford UniversityPress, 2015.
[20] 文献综述参见巴斯:《进化心理学》,陈明明译,华东师范大学出版社,2007年。
[21] J.M. Doris & S. Stich, “As a Matter of Fact: Empirical Perspectives onEthics,” The Oxford Handbook of Contemporary Philosophy, 2005, pp.114-152; L. Vaughn, Bioethics: Principles, Issues, and Cases, OxfordUniversity Press, 2015.
[22] 巴斯:《进化心理学》,陈明明译,华东师范大学出版社,2007年。
[23] J.Haidt, The Righteous Mind: Why Good People Are Divided by Politics andReligion, Pantheon Books, 2012.
[24] P.J. Richerson & R. Boyd, Not by Genes Alone: How Culture TransformedHuman Evolution, University of Chicago Press, 2005.
[25] J.Haidt & C. Joseph, “Intuitive Ethics: How Innate Intuitions GenerateCulturally Diverse Virtues,” Daedalus, Vol. 133, 2004, pp. 55–66.
[26] J.Haidt & F. Bjorklund, “Social Intuitionists Answer Six Questions AboutMoral Psychology,” In W. Sinnott-Armstrong, eds, Moral Psychology, Volume 2:The Cognitive Science of Morality: Intuition and Diversity, MIT Press,2008, pp. 181-217.
[27] R.B. Davis, “The Principlism Debate: A Critical Overview,” The Journal ofMedicine and Philosophy, Vol. 20, 1995, pp. 85–105.
[28] L.Cosmides & J. Tooby, “Cognitive Adaptations for Social Exchange,” In J. H.Barkow, L. Cosmides & J. Tooby, eds, The Adapted Mind: EvolutionaryPsychology and the Generation of Culture, Oxford University Press, 1992,pp. 163-228.
[29] P.Turchin, Historical Dynamics: Why States Rise and Fall, PrincetonUniversity Press, 2003; R. Boyd & P. J. Richerson, “Culture and theEvolution of Human Cooperation”, Philosophical Transactions of the RoyalSociety B: Biological Sciences, Vol. 364, 2009, pp. 3281-3288; K.Flannery& J. Marcus, The Creation of Inequality: How Our PrehistoricAncestors Set the Stage for Monarchy, Slavery, and Empire, HarvardUniversity Press, 2012.
[30] G.Baxter & I. Sommerville, “Socio-technical Systems: From Design Methods toSystems Engineering,” Interacting with Computers, Vol. 23, 2011, pp.4-17.
[31] G.Baxter & I. Sommerville, “Socio-technical Systems: From Design Methods toSystems Engineering,” Interacting with Computers, Vol. 23, 2011, pp.4-17.
[32] I.Rahwan, M. Cebrian, N. Obradovich, J. Bongard, J. F. Bonnefon, C. Breazeal, ...& M.Wellman, “Machine Behaviour”, Nature, Vol. 568, 2019, pp.477-486.
[33] D.G. Johnson & T. M. Powers, “Computer Systems and Responsibility: ANormative Look at Technological Agency,” Ethics and Information Technology,Vol. 10, 2008, pp. 157-168.
[34] I.Rahwan, M. Cebrian, N. Obradovich, J. Bongard, J. F. Bonnefon, C. Breazeal, ...& M.Wellman, “Machine Behaviour”, Nature, Vol. 568, 2019, pp.477-486.
[35] M.R. Endsley, Autonomous Horizons: System Autonomy in the Air Force – A Pathto the Future, United States Air Force Office of the Chief Scientist, 2003.
[36] I.Rahwan, M. Cebrian, N. Obradovich, J. Bongard, J. F. Bonnefon, C. Breazeal, ...& M. Wellman, “Machine Behaviour,” Nature, Vol. 568, 2019, pp. 477-486.
[37] T.Miller, “Explanation in artificial intelligence: Insights from the socialsciences,” Artificial Intelligence, Vol. 267, 2019, pp. 1-38.
[38] F.Doshi-Velez & B. Kim, “Towards a Rigorous Science of Interpretable MachineLearning,” arXiv preprint, 2017, arXiv:1702.08608.
[39] I.Rahwan, M. Cebrian, N. Obradovich, J. Bongard, J. F. Bonnefon, C. Breazeal, ...& M. Wellman, “Machine Behaviour,” Nature, Vol. 568, 2019, pp.477-486; R. Binns, “Fairness in Machine Learning: Lessons from PoliticalPhilosophy,” Proceedings of the 2018 Conference on Fairness, Accountability,and Transparency, 2018, pp. 149-159.
[40] J.J. Bryson, “The Past Decade and Future of AI’s Impact on Society. In Towards aNew Enlightenment? A Transcendent Decade,” BBVA OpenMind, Vol. 11, 2019,pp. 196-213.
[41] R.Binns, On the Apparent Conflict Between Individual and Group fairness. InProceedings of the 2020 Conference on Fairness, Accountability, andTransparency, 2020, pp. 514-524.
[42] C.Jolls, Sunstein, & Thaler, “Abehavioral approach to law and economics,” Stanford Law Review, Vol.50,1998, pp.1471-1550; C. R. Sunstein, “Behavioral Law and Economics: A ProgressReport,” American Law and Economics Review, Vol. 2, 2000, pp. 115-157.
[43] N.Daniels, “Reflective Equilibrium and Justice,” In Justice and Justification:Reflective Equilibrium in Theory and Practice, Cambridge University Press,2016.
[44] P.Hacker, “Teaching Fairness to Artificial Intelligence: Existing and NovelStrategies Against Algorithmic Discrimination under EU Law,” Common MarketLaw Review, Vol. 55, 2018, pp. 1143-1185.
[45] A.Acquisti, L. Brandimarte & G. Loewenstein, “Privacy and human behavior inthe age of information,” Science, Vol. 347, 2015, pp. 509-514.
[46] R.Binns, “Fairness in Machine Learning: Lessons from Political Philosophy,” Proceedingsof the 2018 Conference on Fairness, Accountability, and Transparency, 2018,pp. 149-159.
[47] P.Hacker, “Teaching Fairness to Artificial Intelligence: Existing and NovelStrategies against Algorithmic Discrimination under EU Law”, Common MarketLaw Review, Vol. 55, 2018, pp. 1143-1185.
[48] Y.Feldman & O. Perez, “How Law Changes the Environmental Mind: AnExperimental Study of the Effect of Legal Norms on Moral Perceptions and CivicEnforcement,” Journal of Law and Society, Vol. 39, pp. 620-638.
[49] S.Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future atthe New Frontier of Power, Public Affairs, 2019.
[50] J.M. Darley & B. Latané, “Bystander intervention in emergencies: Diffusion ofresponsibility,” Journal of Personality and Social Psychology, Vol. 8,1968, pp. 377-383.
[51] D. Acemoglu & P. Restrepo,“Artificial Intelligence, Automation, and Work,” Economics of ArtificialIntelligence, 2018, pp. 197-236.
[52] A. Acquisti, L.Brandimarte & G.Loewenstein, “Privacy and Human Behavior in the Age of Information,” Science, Vol. 347, 2015, pp. 509-514.
[53] R. H. Thaler & C. R. Sunstein, Nudge:Improving Decisions About Health, Wealth, and Happiness, Yale UniversityPress, 2008.
[54] M. Buchanan, Ubiquity: WhyCatastrophes Happen, Three Rivers Press, 2000; N. N. Taleb, The BlackSwan: The Impact of the Highly Improbable, Random House, 2007.
[55] I. G. Cohen, “Regulating Reproduction:The Problem with Best Interests,” Minnesota Law Review, Vol. 98, 2013,pp. 423-520.
[56] G. E. Marchant, B. R. Allenby & J. R.Herkert, The Growing Gap Between Emerging Technologies and Legal-EthicalOversight: The Pacing Problem, Springer, 2011.
[57] B. Wagner, Ethics as an Escape fromRegulation: From "Ethics-Washing" to Ethics-Shopping?,In BeingProfiled: Cogitas Ergo Sun, Amsterdam UniversityPress,2018, pp. 84-89.
[58] L. Floridi, “Translating Principles intoPractices of Digital Ethics: Five Risks of Being Unethical,” Philosophy& Technology, Vol. 32, 2019, pp. 185–193.
[59] K.N. Laland & G. R. Brown, Sense and Nonsense: Evolutionary Perspectiveson Human Behaviour (2nd ed.), Oxford University Press, 2011; J. Henrich,S.Heine & A. Norenzayan, “The Weirdest People in the World?” Behavioraland Brain Sciences, Vol. 33, 2010, pp. 61-83.
[60] M.Bovens, The Quest for Responsibility: Accountability and Citizenship in ComplexOrganisations, Cambridge University Press, 1998.
[61] Zsuzsanna Tomor, Albert Meijer, Ank Michels & Stan Geertman, “SmartGovernance for Sustainable Cities: Fingds from a Systematic Literature Review,”Journalof Urban Technology, Vol. 26, 2019, pp.3-27.
[62] 关于复杂适应系统在系统科学中的地位及其理论要点的阐述,最新中文文献可以参见范冬萍、黄键:《当代系统观念与系统科学方法论的发展》,《自然辩证法研究》2021年第11期。
[63] M.Mitchell, Complexity: A Guided Tour, Oxford University Press, 2009.
[64] J. H. Holland, Complexity: A Very ShortIntroduction, Oxford, 2014.
[65] 仇保兴:《基于复杂适应系统理论的韧性城市设计方法及原则》,《城市发展研究》2018年第5期;葛岩、秦裕林、赵汗青:《社交媒体必然带来舆论极化吗:莫尔国的故事》,《国际新闻界》2020年第2期,等等。
[66] J.H. Miller & S. E. Page, Complex Adaptive Systems: An Introduction toComputational Models of Social Life, Princeton University Press, 2007; J.H. Holland, Adaptation in Natural and Artificial Systems: An IntroductoryAnalysis with Applications to Biology, Control, and Artificial Intelligence,MIT Press, 1992; U. Gasser & V. A. F. Almeida, “A Layered Model for AIGovernance,” IEEE Internet Computing, Vol. 21, 2017, pp. 58-62. 后者提出了提出了一个基于复杂适应系统的分层治理模型,讨论了如何通过分层结构和多样化的机制来应对人工智能系统的复杂性和适应性,确保监管框架能够随系统的发展演化。
[67] D. Gibson & J. M. Wilson, “AdaptiveEthics in Complex Systems: Balancing Competing Values in a DynamicEnvironment,” Ethical Theory and Moral Practice, Vol. 6, 2003, pp.115-130.
[68] L. Floridi, The Ethics of Information,Oxford University Press, 2013.
[69] I. Van de Poel & L. Royakkers, Ethics,Technology, and Engineering: An Introduction, Wiley-Blackwell, 2011.
[70] N. Daniels, “Reflective Equilibrium andJustice,” In Justice and Justification: Reflective Equilibrium in Theory andPractice, Cambridge University Press, 2016, pp. 1-22.
[71] I. Van de Poel & L. Royakkers, Ethics,Technology, and Engineering: An Introduction, Wiley-Blackwell, 2011.
[72] D. Helbing, Globally Networked Risks andHow to Respond. Nature, Vol. 497, 2013, pp. 51-59.
[73] D. Helbing, “Globally Networked Risks andHow to Respond,” Nature, Vol. 497, 2013, pp. 51-59; N. Bostrom, Superintelligence:Paths, Dangers, Strategies, Oxford University Press, 2014.
[74] J. H. Holland, Emergence: From Chaosto Order, Basic Books, 1998.
[75] S. A. Levin, “Ecosystems and theBiosphere as Complex Adaptive Systems,” Ecosystems, Vol. 1, 1998, pp.431-436.
[76] M. Tegmark, Life 3.0: Being Human inthe Age of Artificial Intelligence, Alfred A. Knopf, 2017.
[77] J. D. Greene, Moral Tribes: Emotion,Reason, and the Gap Between Us and Them, Penguin Press, 2013; J. Haidt, TheRighteous Mind: Why Good People Are Divided by Politics and Religion,Pantheon, 2012; D.Kahneman, Thinking, Fast and Slow,Farrar, Straus andGiroux, 2011.
[78] C. Jolls, C. R. Sunstein & R. Thaler,“A Behavioral Approach to Law and Economics,” Stanford Law Review, Vol.50, 1998, pp.1471-1550; I. Van de Poel & L. Royakkers, Ethics,Technology, and Engineering: An Introduction, Wiley-Blackwell, 2011.
[79] C. R. Sunstein, Worst-Case Scenarios,Harvard University Press, 2007.
[80] D.Helbing, “Globally Networked Risks and How to Respond,” Nature, Vol.497, 2013, pp. 51-59; N. Bostrom, Superintelligence: Paths, Dangers,Strategies, Oxford University Press, 2014.
[81] 卢曼:《法社会学》,宾凯, 赵春燕译,上海人民出版社,2013年;泮伟江:《法律系统的自我反思——功能分化时代的法理学》,商务印书馆2020年版。
[82] R.Caldwell, “Agency and Change: Re-evaluating Foucault’s legacy,” Organization,Vol. 13, 2006, pp. 111-130.
[83] N.Luhmann, Risk: A Sociological Theory, De Gruyter, 1993.
[84] R.Nobles & D. Schiff, Observing Law through Systems Theory, HartPublishing, 2013.
[85] S.Fuchs, Against Essentialism: A Theory of Culture and Society, HarvardUniversity Press, 2001.
[86] J.Habermas, “The Theory of Communicative Action,” Volume 2: Lifeworld andSystem: A Critique of Functionalist Reason, Beacon Press, 1985; H.-G.Moeller, Luhmann Explained: From Souls to Systems, Open CourtPublishing, 2006; N. Luhmann, Law as a Social System, Oxford UniversityPress, 2004; G. Teubner, “Juridification of Social Spheres: A ComparativeAnalysis in the Areas of Labor, Corporate, Antitrust, and Social Welfare Law,”In G. Teubner (Ed.), Juridification of Social Spheres, De Gruyter, 1987,pp. 3-48.
[87] H.-G Moeller, The Radical Luhmann, Columbia University Press,2011.
[88] N.Luhmann, Law as a Social System, Oxford University Press, 2004.中文阐述参见鲁楠、陆宇峰:《卢曼社会系统论视野中的法律自治》,《清华法学》2008年第2期。
[89] 更偏向法律适用视角的法律原则研究可参见林来梵、张卓明:《论法律原则的司法适用》,《中国法学》2006年第2期;于飞:《公序良俗原则研究———以基本原则的具体化为中心》,北京大学出版社,2006年。
[90] 陈景辉:《原则、自由裁量与依法裁判》,《法学研究》2006年第5期。
[91] 结语部分受启发于我的同事宾凯老师,特此致谢。类似的理论阐述参见宾凯:《复杂性化约于现代法的实证化——兼论卢曼前期法社会学的研究方法》,《北京航空航天大学学报》2023年第3期。