【作者】季卫东、沈伟等
【内容提要】
AI治理多频道——中国之声暨对话Simon Chesterman教授
人工智能立法的四种模式与国际合作共识
季卫东
上海交通大学文科资深教授、中国法与社会研究院院长、联合国大学全球人工智能网络首届理事会联席主席、中国计算机学会(CCF)计算法学分会会长。
2024年诺贝尔物理学奖、化学奖都授予人工智能技术及其科学应用的发现和发明,引起一片惊愕,也让所有人都更清楚地认识到:我们正处于人工智能的数字大革命之中。人工智能可以大幅度提高效率,这是毫无疑义的。但是,人工智能会不会使世界进入后人类(Post Human)或者后人本主义的时代?这还是个问题,正在引发争论。与此相关,尤瓦尔•赫拉利在《未来简史》中提到一个重要的概念“Homo Deus(神人)”,在我国似乎还没有得到充分的重视。后人类、跨人类、神人或者超人会不会形成对人类及其个体的碾压,或许将构成对现代国家治理体制的一种严峻挑战。
这两、三年间,大模型飞速迭代,生成式人工智能正在影响到日常生活的方方面面。通过人机共存和人机对话形成的这种生成式话语秩序,正在使每个人都生活在作为集合的相互作用之中。“我”的观念势必相对化,“我们”将越来越成为生活世界的主语。换句话说,在生成式人工智能强势崛起的当下,哲学和法学的思维方式从个体的“我”转向集体的“我们”的趋势实际上变得更加难以阻挡了。尽管计算机系统用户的基本单位依然以个人为单位,还是按一人一账户以及自律式个体自由的原则来进行认证和管理数据的,但是,在社交网络中一度膨胀化的自我,在进入生成式人工智能阶段之后,日益融合到大模型之中,日益融合到相互作用的集合之中,转化为话语秩序中的“我们”而重新呈现出来。从个体本位到集体本位,这是计算法学以及数字法治都不得不面对的社会范式和研究范式的根本性变化。
从法学的角度来看,传统意义上的司法判断在很大程度上基于经验法则。因此,法官与律师以及当事人之间不得不进行一场又一场“不完全信息博弈”。鉴于时间和信息的有限性,法官必须把案件的具体情况抽象化,变成简单的规则来进行处理。只有在少数简易案件的场合,才存在事实与法律都很明确清晰的“完全信息博弈”。但是,具有机器学习能力的人工智能,是在庞大的数据库中,通过全数据集来选择最佳解决方案。因此,智慧司法的本质是把所有的不完全信息博弈都转化为完全信息博弈来处理,从而可以对复杂的具体情况进行复杂的应对。当然,人工智能一直存在所谓框架问题和符号接地问题的局限,也很难充分反映人类的直觉、常识、默示知识以及价值判断。但是,语言大模型和多模态大模型把包涵直觉、常识、默示知识以及价值判断的所有行踪数据,还有图片、声音、影像等所有表达数据,统统都纳入学习和提炼模型的范围之内。这就可以在相当程度上化解了所谓框架问题和符号接地问题。何况人型机器人还可以通过给人工智能设定身体性或物理界限,通过限定信息处理范围的方式增加人工智能的知识弹性,这就存在超越深度学习、不必完全以数据规模来定胜负的可能性。人工智能技术如此神速的进步,意味着智慧法院的审判方式也将实现从量变到质变的飞跃。
在很长一段时期内,人工智能的确取决于算法,基本上一直属于计算的世界。因此我们在考虑法律与人工智能之间关系时,只谈计算法学,只谈算法的可解释性和算法公正就基本上可以万事大吉了。在这个意义上,计算法学与人工智能治理的关系,可以用XAI(可解释人工智能)来一言以蔽之。但是,在当今的形势下生成式人工智能快速迭代、人机共存和人机对话成为社会的常态,人工智能与法的研究计算法学还必须导入一个新的关键词:CAI——Co-evolutional AI,也就是人机共同进化式人工智能。这意味着人工智能研发正在迈进新的阶段,人工智能治理也势必随之迈进新的阶段。很可能会出现某种人类无法理解的智能。当人工智能可以自我撰写代码、修改程序,那么大数据中固有的黑箱性也必然会在生成式人工智能中进一步强化,甚至诱发人工智能失控的风险以及社会不安。
鉴于人工智能发展的这种新局面,使AI安全已然成为当今世界关注的一个焦点。从AI安全的视角来考察,究竟如何正确对待人工智能立法,必将成为人工智能与法律研究领域的一个中心课题。2024年3月13日,欧洲议会通过了《人工智能法》,在8月1日生效,大部分规则从2026年8月2日起开始实施。显而易见,欧盟的立法机构确立了安全优先于发展的价值排序,要求成员国进一步加强对科技前沿拓展和应用场景的监管。其基本特征是监管高于研发。欧盟《人工智能法》把AI风险区分为不可接受、高、有限、最小这四个等级,分别规定了不同的规范方式。特别值得重视的是,该法认为极其有害和有违欧洲价值观的AI应用还包括通过社会评分系统对个人行为的操纵、实时远程的生物特征识别技术的应用、预测性警务系统的导入,一概属于禁止的范畴。另外,协助法官和律师的法律专家系统以及智能审判项目也被认定为高风险类型,需要重点监管。与此形成鲜明对照,2022年10月白宫科技政策办公室发布的《AI权利法案蓝图》、2023年1月国家标准和技术研究机构发布的AI风险管理框架等,也都是原则和政策的宣示,不具有任何法律约束力;在大模型引起全球舆情高度关注安全问题的背景下,拜登政府在2023年7月21日与人工智能领域的七家头部企业达成关于AI研发和应用的安全自愿承诺,同样不具有任何法律约束力。实际上,中国在2019年率先提倡人工智能的敏捷治理原则,与美国同样具有高度弹性。但在2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,把AI全生命周期各环节的责任审查和问责机制作为基本原则之一。2022年3月1日,“互联网信息服务算法备案系统”正式上线运行,使对人工智能的监管形成了算法备案、算法检查、算法问责“三位一体”的基本框架。特别是2021年算法滥用治理专项行动和2022年算法综合治理专项行动对违规现象进行了严厉惩治,显示了监管的刚性一面。
鉴于上述事实,在2024年春天联合国大学澳门研究所AI国际研讨会上,我的发言分析了人工智能立法的四种模式,即欧盟的硬法模式、美国和日本的软法模式、中国的软硬兼施模式以及新加坡的程序-技术模式。特别值得指出的是,在贯彻人工智能治理的原则和政策方面,新加坡走了一条低调务实的技术路线。2022年5月,该国政府在2022年5月推出了全球首个人工智能治理开源测试工具箱“AI.Verify”,把测试和过程检查融合在一起,通过安全、灵活、透明化、可审计、可问责、互相制衡的程序达到可信AI的目标。虽然Simon Chesterman教授在刚才的演讲中谦虚地强调这只是适合一个小型城市国家的经验,但我认为这种“技术-程序法模式”既是新加坡人工智能治理的特色,也具有普遍推广的可能性。例如IBM在2023年12月推出的人工智能治理模型“WatsonX.Governance”把风险防控与自动化的监管工具开发密切结合在一起,可以按照人工智能法规和政策提供AI 的“营养标签”、实现主动检测和减少偏差的 LLM 指标,与“AI.Verify”就有异曲同工之妙。此外还有加强AI自监督学习能力的图像世界模型(IWM),也可以发挥类似的控制作用。正是在这里,立法者如何在人工智能发展与社会系统安全之间保持适当平衡的问题答案似乎也隐约可见。如果大模型的技术研发不仅是AI治理的对象,也可以反过来为AI治理赋能,那么科技企业就不会对人工智能立法感到忧心忡忡。实际上,如果大模型的安全研究通过技术-程序的进路能够形成测试、评估以及监控的工具箱,其中包括推广数字水印技术、开发AI验证小模型、形成AIGC打假系统、建立AI伦理管理指标体系和认证平台、编制AI安全保障网,那么监管与发展就不再是一种零和游戏,AI治理还能为AI研发开拓出新的投资机遇或者市场空间,通过错位竞争构成企业的科技蓝海。换言之,只有在语言大模型和多模态大模型的性能提升与安全度提升形成某种正比关系之际,只有在监管转变为程序本位和技术本位之际,各国以及全球才有可能真正进入所谓“人工智能治理的立法时刻”。
另一方面,在2024年3月,三十几位海内外技术专家和企业领袖在中国签署了《北京AI安全国际共识》,为人工智能研发划出了几条明确的红线,并试图以这些原则为基础形成国际合作机制。北京共识的主要内容包括确保人类对AI系统复制和迭代的控制、反对大规模自动化武器的设计、导入国家注册制以便按照全球对齐的要求加强监管和进行国际审计、防止最危险技术的扩散、开发全面的治理方法和技术、建立更强大的全球安全保障网络。非常有趣而又耐人寻味的对照是,当欧洲科技企业担心偏重监管的欧盟《人工智能法》势必吞噬占投资17%的AI产业发展之际,这个《北京AI安全国际共识》却呼吁各国政府和企业把AI研发预算的三分之一投到安全保障领域,似乎更偏向于监管方面。“33% vs. 17%”的成本效益竞争,仿佛构成规则制定话语权的一个制高点。到5月,欧洲委员会通过了《人工智能、人权、民主和法治框架公约》,就在一个多月前的9月5日开放各国签署,没有邀请中国和新加坡参与其事。由此可见,“人权、民主和法治”的社会价值竞争,显然构成规则制定权的另一个制高点。几乎同步进行,联合国大会在7月1日通过了中国主提、140国联署的《加强人工智能能力建设国际合作决议》,在9月22日又通过了《未来契约》以及作为附件的《全球数字契约》,中国政府积极参与起草并提出了正式意见书。无论如何,人工智能治理都势必成为一个涉及整个人类命运的全球议题,怎样才能就国际合作体制达成更广泛的基本共识,促使各国的多元政策生态逐渐协同,将成为未来三到五年内的世界性课题。
人工智能伦理监管的重点问题
沈伟
上海交通大学法学院教授、凯原特聘教授、上海东方学者特聘教授、博士生导师
21世纪以来新一代人工智能得到了广泛应用,人工智能技术迅速在图像识别、语音识别、机器翻译、自动驾驶等复杂的现实场景中得到了飞速发展,已经不断嵌入社会各领域,深刻改变了人类的生活、生产方式、组织形式和社会结构。但与此同时,人工智能作为一种新兴技术也对人类的生存、发展造成了严峻的挑战。艾萨克·阿西莫夫(Isaac Asimov)提出的著名的“机器人学三定律”是规范新技术的重要准则,也为人工智能技术发展提供了基本思路。一种简单的想法是,将伦理和法律简化为几个基本原则,并以人工智能可理解的方式编码输入到人工智能系统中,以实现对人工智能的伦理控制。但在现实中,人工智能的伦理与法律问题实际上复杂得多,需要形成从原则到规则的具体方案。
技术发展中的“科林格里奇困境”同样反映在人工智能的伦理问题中,即新技术的社会后果难以在技术生命的早期被有效预测,在其能够被预测时往往技术已成为整个经济和社会结构的一部分,难以进行控制。对此,科林格里奇本人提出了两种应对模式:一是,预测和避免损害;二是,确保相关决策的灵活性或可逆性,具体包括预防原则和精明无为两种方式。
目前,国际组织、国家以及社会各界普遍关注人工智能伦理问题,并形成了一系列的伦理框架与原则共识,具体包括可控性、透明度、安全、负责任、非歧视和隐私保护等六大方面,这主要反映了应对科林格里奇困境的第一种方案。但由于人工智能的威胁还尚不直接,且各国之间存在着激烈的人工智能技术竞争,全面禁止人工智能研究是不现实的,暂时只能提出模糊的原则防止人工智能带来的威胁。在具体的监管落实方案上,欧盟、美国与中国作为当前全球人工智能发展中的“主导性数字力量”,却给出了有差异的答案。欧盟《人工智能法》以人权和个人信息保护为立法主题,提供了基于风险的人工智能监管框架,减少人工智能技术的生产者与消费者之间的信息不对称问题并防止人工智能可能造成的损害为欧盟的人工智能监管提供了必要性。美国则采用了市场化的进路,拒绝对人工智能进行广泛的监管,在监管对策上较为宽松,以防止人工智能监管限制创新或对市场造成扭曲。中国则更加关注政府在支持人工智能发展中的重要作用,将人工智能确立为政府的重要发展目标,人权和市场均不是中国人工智能规则的关注核心。上述差异反映了人工智能伦理规则和监管方案上的共识还有待达成。
以下几个方面是未来人工智能伦理规则发展的重要关注方向。
首先,多元化的人工智能监管目标需要得到关注。人工智能监管不仅包括促进市场发展的目标,还包括实现国家和社会政策、促进创新、保护公民权利、增强国际竞争力、保障国家安全等多重目的,反映为技术、市场和道德等多重考量。尽管各国在人工智能监管上的具体方案不同,但共识是人工智能监管以继续发展人工智能技术为前提,这意味着监管中需要统筹发展与安全,使赋能与规制并重。
其次,预防原则和精明无为可以构成人工智能监管新的方案。预防原则主要反映在环境法领域,但对于人工智能也同样适用,即在某些严重的风险成为现实或可量化之前,应当采取预防措施,禁止或严格限制人工智能的发展,这为人工智能技术划定了伦理红线。精明无为构成人工智能监管的另一种策略,尽管精明无为也是一种不作为,但不同于被动地任由人工智能技术发展,精明无为意味着政府需要积极地监测和参与新兴市场及其参与者,并“静观其变”。除形成一系列伦理原则外,鼓励行业协会等非政府主体进行治理和发挥司法的主观能动性可以作为精明无为的另一种具体方案,以适应人工智能实践的发展。
最后,负责任构成人工智能伦理监管的核心要求,人工智能监管不仅需要从结果上防范人工智能带来的具体风险和决策准确性问题,还需要保障人工智能决策的责任由人类承担,这是对人工智能监管的伦理要求。人工智能的负责任监管要求至少具有一定程度的透明度和可控性,并且对人工智能应用于公共决策提出了更严格的要求。
人工智能治理与监管已呈现条约化、义务化和硬法化的趋势。例如,澳大利亚和新加坡签署的《数字经济协定》专条规定缔约双方关于“人工智能”的相关共识,包括双方应通过相关的区域和国际论坛,合作并促进框架的开发和接受,以支持可信、安全和负责任地使用人工智能技术,在制定此类人工智能治理框架时,考虑国际公认的原则或指导方针。与此相类似的还有智利、新西兰、新加坡和中国签署的《数字经济伙伴关系协定》以及欧洲委员会开放签署的《人工智能与人权、民主和法治框架公约》等国际条约。人工智能相关国际条约的出现有助于缓解国内法的冲突、协调各国人工智能监管需求,也为人工智能的全球治理提供了法律依据,代表着人工智能监管的发展方向。
人工智能规制的比较视角
邱遥堃
上海交通大学凯原法学院、中国法与社会研究院副教授
尽管陈西文教授的《从伦理到法律:为何、何时以及如何规制人工智能》一文探讨人工智能规制的前提性问题,尝试提出更为必要且可行的人工智能规制方案,但关于法律为何要规制人工智能、特别是限制人工智能对人类智能工作的替代,本文意见略有不同,主张应当采取比较视角,对比不同的规制手段、治理方式之间的相对优劣势,更为审慎地对人工智能的开发与应用进行限制。关于当前最热议的生成式人工智能乃至通用人工智能的规制问题,陈教授总体采取减少规制、鼓励发展的立场,本文亦认为借助不同类型之人工智能的比较,也有助于更清晰地理解这一新兴技术带来的机遇与挑战。
一、 法律与其他规制手段的比较
陈教授认为,之所以要规制人工智能,是为了解决市场失灵、维护社会价值、确保人类主导与过程透明。虽然可能有碍创新,但规制是国际大势所趋,“真正的根本问题不是是否要规制,而是何时规制。”
问题的关键确实在于规制的时机,但对人工智能这类破坏性创新技术,法律减少或推迟规制,不仅是为了鼓励创新,还因为其他规制手段未必不能达到同样的规制目的。技术开发者及其所属企业始终追求人工智能运行过程的透明与输出结果的准确与公平,因为不透明、不准确、不公平的人工智能投入市场必然引起社会舆论批评、引发损害赔偿风险。人工智能训练数据的个人信息、知识产权风险也并未因为相关法律的不健全不完备而受到忽视,社会规范与市场机制同样在约束着相关主体的行为。甚至“代码就是法律”对人工智能规制同样具有启发,不论新加坡政府的AI.Verify还是IBM的WatsonX.Governance,都代表了从技术角度规制人工智能并试图统筹安全与发展的尝试。
因此,通过法律与社会规范、市场、代码等不同规制手段的比较,或许更能澄清规制的必要性与时机问题。
二、人工智能与人类智能的比较
陈教授认为,“完全禁止算法没有必要,这不仅是因为(权力的)任何定义都可能包括行使自由裁量权的计算和其他基本功能。更重要的是,它错误地识别了问题。问题并不在于机器在做决策,而在于人类放弃了对它们的责任感。”
人类确实要在人工智能决策过程中保持主导地位,但这并不意味着所有人工智能决策都需要受到同等程度的人类监督。某些简单问题,涉及非黑即白的二元判断,人工智能相比于人类智能具有更高的准确度与效率,且其权力更不可能被收买,值得托付于人工智能;对此,人类智能的主导地位在于事前识别出此类问题,设计性能符合要求的人工智能,而非对此类问题的解决结果也要实施人工监督,否则就将失去在此应用人工智能所追求的效率与公平之提升。某些复杂问题,涉及法律的模糊地带、边际性的价值判断与利益衡量,人工智能相比于人类智能而言并无明显决策优势甚至可能具有劣势;对此,应当坚持人类智能主导解决,甚或排除人工智能,从而产生相应的禁止外包或确保人类在责任链条上可追溯的解决方案。
因此,通过人工智能与人类智能的比较与分工,更有利于充分发挥人工智能的决策优势,避免人类主导权的旁落。
三、不同类型之人工智能的比较
陈教授总体支持对生成式人工智能乃至通用人工智能减少规制以鼓励发展,但并未过多着墨。事实上,通过不同类型人工智能的比较,也有利于廓清在规制上如何对待生成式人工智能。具言之,生成式人工智能的技术复杂、利益冲突与人机交互进一步加剧了对人工智能进行过程规制的内在困难,但其发挥的功能类似搜索算法,并服务于平台利益的增进,促使双边平台向单边转型。因此,应当继续坚持与其他人工智能类似的、主要对其结果而非过程进行规制的方案,并特别注意通过法律解释,为其发展提供更多可用数据,但应当确保相关数据所创造的更大社会效益能普遍地惠及更广大的社会群体。
行政职能授予人工智能系统的边界
谭俊
上海交通大学凯原法学院助理研究员、中国法与社会研究院助理研究员
陈西文教授的演讲和新近的中译本著作(《我们,机器人?——人工智能监管及其法律局限》)直面数字时代人工智能所带来的各种挑战,深刻地揭示了人工智能监管中面临的若干困境,比如监管目的是促进还是限制人工智能的发展、监管的时机是预防性监管还是待风险事件发生后再监管、监管的红线如何确定等。相关的讨论和应对举措对于当下中国正在推进的人工智能立法具有重要的启示意义。在诸多主题中,陈教授提及但没有深入讨论的议题之一就是政府机构的职能是否能够外包给人工智能。陈教授主张要限制人工智能承担政府固有的职能,因为一旦将政府职能或权力外包给人工智能系统,相应的监管将变得比较困难,同时也会面临决策合法性和程序正当性的问题。可惜的是,由于主题和篇幅的限制,陈教授并没有深入地讨论哪些政府职能不能委托给人工智能系统。
这个问题对于当下中国数字政府建设也是至关重要。众所周知,中国正在大力推动数字政府建设,其中,除了对电子化政府进行转型升级外,部分的机构已经尝试将自动化或半自动化的人工智能系统应用于政府治理和行政执法中,比如,深圳市推出的“无人干预自动审批服务”、南京公安的“案件自动量罚系统”、上海浦东的“非现场执法”等。这些不同的系统只需要管理者或执行人员输入特定的事实或资料就能自动生成出相应的结果,能够不同程度地取代政府公务人员的执行。虽然自动化或半自动化的人工智能系统能够提高行政的效能,但行政机关的职能和权力是法律所授予的,其能否将权力直接或间接转授予给具有不确定性和不可解释性的人工智能系统?如果可以,那么法律授权或转授权给人工智能系统的边界当如何确定?通过何种方式实现?这些都是我们数字化政府建设中面临的核心问题。
对此,不同学者对于政府职能能否授权给人工智能系统有不同的主张。从陈教授的角度来看,法官和其它享有自由裁量权的官员的权力不能外包给自动化机器,影响个人权利和义务的政府职能仍应由可通过政治或宪法机制问责的公职人员承担。但有学者认为即使是完全自动化的人工智能系统,只要能够获得被替代的行政机关的特别授权或概括授权,同样也具有正当性。这两种观点如同光谱的两端,一端是对自动化行政的完全肯定,另一端是对全自动化行政的完全否定。与之不同的是,第三种观点则是居于光谱的中间,认为对于不具有裁量权的行政事项和一般裁量的行政事项,可以通过法律授权给人工智能系统进行决策,而涉及重要裁量的行政事项则不能授权。此一路径比较符合当下中国的现实,不过需要进一步讨论的是,具体哪些行政事项不能被授权给人工智能系统。由于人工智能在政府职能中的应用尚待发展中,相关的问题还没有完全显现,我们只能从基本原则的角度进行初步的探讨。一方面,我们需要对人工智能技术的应用保持审慎乐观的态度;另一方面,对行政管理中涉及公民人身自由和人格尊严相关的重要影响事项不能授权给人工智能系统,但是一般经济性利益相关的事项可以授权,因为其带来的后果可以通过行政补偿或赔偿的方式予以救济。在这一过程中,我们需要明确利用人工智能系统在行政管理和执法中的责任分配机制和确保管理或执法相对人的“技术性正当程序”,以及当社会公众或个体权利受到侵害时,行政和司法机关能够提供有效的权利救济通道。当然前述的内容也相当的概括,在具体的实践中仍然需要政府部门与司法部门在行政法治原则的基础下,不断细化利用人工智能系统行政的权力边界。相关的问题期待向陈教授进一步请教!
法院人机协同审判的挑战与应对
衣俊霖
上海交通大学凯原法学院凯原助理教授(博士后)
近年来,伴随着大语言模型的一系列颠覆性突破,使人工智能技术的使用门槛大大降低,机器算法已经成为人们工作和生活中的重要协同伙伴,人机协同的决策模式已成为一种新常态。特别地,人工智能对法院司法审判活动的渗透,引发了理论和实务界的广泛关注和讨论。目前,我国法院系统非常强调法官在人机协同审判中的审判主体地位,简言之,即人类法官对审理结果“兜底负责”。在此基础上,司法实践中的人机协同审判呈现出两方面的鲜明特点。其一,内部分工上“法官为主、机器为辅”的——法官作为最终的裁判者,在如何采纳机器辅助建议的问题上有最终发言权。其二,外部展示上“法官在明、机器在暗”——办案法官不需要将机器辅助建议对外进行披露,人工智能消隐于人类法官的背后。值得注意的是,由于机器算法目前隐身于法官身后,因此法官对机器辅助建议的态度成为一个谜团。人类法官到底是“考虑”还是“依赖”机器推送的结果,似乎就只有办案法官自己内心明了,这便为恣意性埋下了种子。正如法谚所言,“正义不仅应得到实现,而且要以人们看得见的方式加以实现”,人机协同审判如何以“看得见的方式”实现正义成为一个日益严峻的挑战。换句话说,人机协同的内部分工与外部展示之间如何实现表里如一,从而赢得社会公众的信任是一个核心难题。对此,一种比较激进的解决思路是:改变法官与算法既有的角色分工,让人工智能直接从幕后走向台前。例如,部分专家学者主张可以尝试让人工智能直接审理简单小额案件,并依托于当事人的合意来加强人工智能审判的合法性。笔者认为,前述方案是对国家审判权的剧烈改造,涉及司法权威、人类尊严等基本价值问题,因而目前仍处于理论设想层面,现实中难以付诸实践。相比之下,在尊重法官审判主体性的前提下,回归司法审判法律程序的基本精神可能会为我们提供更加切实可行的行动线索。诚然,现代法律程序在人工智能时代来临前就已经具有较为成熟的基本形态,但不能因此就否认法律程序之中蕴含着历久弥新的基本规律和价值。其中,尤为值得关注的是法律程序的沟通议论面向。简言之,司法审判是话语博弈的竞技,法律程序是沟通议论的过程——在不断反驳和论证的话语技术竞争过程中,解决方案的多样性会逐步淘汰减少,直到最后找出一个大家都承认或者接受的正解,至少是唯一的判定答案。而在人工智能时代,沟通议论的基本价值并没有改变,只不过人工智能正逐渐成为司法审判中一个不容忽视的、新的沟通者。人机协同审判所带来的根本变革和挑战,归根到底要落脚于人与人之间,以及人与机器之间的沟通互动之上。从这个意义上说,尽管人工智能无法成为“审判主体”,但仍不妨将人工智能拟制为法律议论中的“沟通主体”,进而在司法审判程序中为其划定更为明确的一席之地。
法律如何落实AI伦理的原则性共识?
《From Ethics to Law: Why, When, and Howto Regulate AI》一文的短评
赵泽睿
上海交通大学凯原法学院助理研究员、中国法与社会研究院助理研究员
AI引发的社会变革让法律与伦理之间如何互动的讨论得以复兴。虽然在19世纪末,从公元前5世纪开始的“法律与伦理之间是何种关系”的讨论便因自然法的衰退而逐渐没落,分析法学的兴起也彻底划清了法学与伦理学之间的界限。[1] 但就如庞德所言:“法律既不能远离伦理习俗,也不能落后太多。因为法律不会自动地得到实施。必须由单个的个人来启动、维持、指导法律装置的运转;必须用比法律规范的抽象内容更全面的事物,来激励这些人采取行动,并确定自己的行动方向……法学和伦理学的核心部分是完全不同的,但其边缘部分却是相互重叠的。”[2] AI引发的伦理与法律问题让两者之间如何关联的讨论重新被社会各界所关注:一方面,全球各国需要提出自身的AI伦理原则来抽象、全面地指引人们治理AI风险,为各国的AI立法奠定共识性的基调与目标;另一方面,各国政府又必须通过AI立法,将AI伦理所达成的原则性共识落地为切实可操作的监管法规。
《From Ethics to Law: Why, When, and How to Regulate AI》一文对当前AI伦理的现状与困境进行了全面总结,并对AI伦理与法律交叉研究的匮乏进行了深刻反思。其指出现有关于AI伦理的讨论,过多地关注于寻找共识性的规范原则,而对于这些看似达成共识的规范原则如何通过法律落地以及是否有必要通过法律落地的讨论过少。这导致全球各国似乎在“人类控制”“透明度”“安全”“问责制”“非歧视”“隐私”等六项AI治理原则上达成了共识,但对于如何通过法律来具体落实这六项治理原则却一直未能有所进展。而造成此种现状的根源在于人工智能的不确定性问题。人工智能的不确定性让这些伦理原则不得不适用于那些尚不知道的技术,并要解决那些尚未预见的问题,这让法律难以将抽象、全面的伦理原则落地为具体切实的监管举措。对于此种困境,该文分别从为什么AI伦理需要法律进行监管落地、何时法律需要对AI伦理进行监管落地,以及如何实施AI伦理的法律落地,这三个层面进行了回应。
对于AI伦理所面临的不确定性,法律是否应该进行监管?该文认为,在实体性层面,AI伦理能够为法律监管提供道德基础,例如法律禁止有偏见的、用于武器的AI以促进公平和捍卫人权。而在程序性层面,AI伦理也能为法律监管提供必要前提,例如透明度与可解释性使得法律监管与问责成为可能。因此,对于AI伦理的不确定性,法律落地时所真正面临的问题不是是否应该监管,而是何时监管。对此,该文以科林格里奇困境(Collingridge Dilemma)为引指出,面对新技术的未来潜在风险,现有的大多研究以伦理原则的方式进行预测与避免,虽然其足够宽泛并能适应技术变化,但其也存在过于模糊且无力为具体案件提供指导的缺陷。因此,该文分别从预防原则和恰当的不作为角度来解决AI伦理的法律监管时机问题。而对如何实施AI伦理的法律落地,该文分别从具有约束力的命令、财政或其他激励措施和市场力量三个角度进行了展开,并指出多元的监管主体和多种的监管工具将比一元监管机构和单一监管举措更能应对AI伦理的不确定性。此外,该文还指出法律需要通过设置风险管理举措、划定法律红线、限制AI外包等三个方来推动AI伦理的落地。
概况来说,该文在对AI伦理现状的反思基础上,对监管机构为什么、何时以及如何推动AI伦理的法律落地进行了富有启发性的论述。其论述中的几个亮点值得我们进一步思考。首先是法律如何应对AI的不确定性问题,AI的不确定性不仅仅表现在伦理层面,其概念内涵、技术路径、应用模式、治理规则都会随着社会发展而动态变化,AI立法如何以静“治”动便成为了当代法学必须回应的问题。对此,该文提供了许多值得借鉴与参考的思路。其次是AI治理的多元性问题,AI治理既涉及政府、又涉及市场,更会涉及社会公众,法律如何确立这三者在AI治理中的角色定位,以及如何有效协调三者做出恰当、合理、可问责的治理决策将是人工智能立法所需要思考的关键问题。最后是AI立法中的实体性规则与程序性规则,该文谈到了AI伦理中一部分是为法律监管提供实体目标或道德基础的实体性原则,如“人类控制”“非歧视”,另一部分则是为法律监管提供问责前提与沟通渠道的程序性原则,如“透明度”。这启发我们需要思考AI立法中实体性规则与程序性规则该如何恰当地分工与合作共同推动AI治理的多元、敏捷,这将决定我国的AI立法将会以何种路径实现法律的以静“治”动。