当前位置:首页 > 文献资源 > 研究报告
文献资源
李学尧 | 人工智能立法的动态演化框架与制度设计
2025年05月06日 【作者】李学尧 预览:

【作者】李学尧

【内容提要】



人工智能立法的动态演化框架与制度设计







李学尧 上海交通大学凯原法学院教授、中国法与社会研究院企划委员会委员







摘要:如何构建兼具稳定性与灵活性的人工智能立法框架是一个全球性议题。针对规范方法论主导下的人工智能立法思路可能引发的制度适用问题,应采取适应型法的立法思路。为了实现法律规则与技术演进的动态适配,还应结合本土实践探索人工智能立法的适应性法治路径:审慎对待体系化、部门法化的立法目标,尽量在传统部门法的实体法框架中采用立改废释的方式实现人工智能的立法目标;动态适应性原则应是人工智能立法的核心原则;条款拟制应从义务本位转向行为激励;学理阐述需把重点放在如何建立法治化”“中央底线规则+地方差异化试点+司法判例引导的多层治理体系,进一步优化软硬法协同在内的中国式法治实践。这样既可以延续中国改革开放以来试验推广的制度创新传统,也可尝试为全球技术治理贡献具有普适价值的制度分析工具。






一、问题的提出

人工智能技术的指数式发展,正在重塑全球社会经济结构,其自主决策、跨域渗透与快速迭代的特性,使传统法律体系面临前所未有的适应性危机。人工智能立法最近成了中国法学界的热门话题,其中,较多研究者倾向于构建一部带有基本法律性质的《人工智能法》,通过体系化立法实现对人工智能治理的系统化规制。


人工智能立法需突破类法典化范式的路径依赖,转向反脆弱性的、更具弹性的适应性法治模式,采取一种通过局部试错提升系统抗风险能力的动态立法思路。这一理论建构基于以下现实矛盾:一方面,技术的高速迭代要求法律保持动态调适能力,要求治理框架具有与激励相容的机制;另一方面,算法的社会嵌入性(如医疗诊断、司法裁判、金融风控)急需法律为公共利益、社会伦理划定不可逾越的底线。更重要的是,规范方法意义上的人工智能法研究和实践,实质上仍需且基本可以借助传统的民法学、行政法学等部门法体系,如果在未有系统化的理论建构前提下,就贸然以一种独立的部门法化的思路推进人工智能法的体系化立法,其结果带来的很可能是叠床架屋式的立法,这种立法既会破坏现有法律体系的完整性,削弱现有法律体系的延续性和确定性,还会给人工智能行业中的各类主体带来不同监管部门叠加的高成本合规义务,最后走向良好创新促进制度环境营造的反面。


为破解这一矛盾,本文倡导:第一,在立法理念上,进一步确定人工智能立法不以自上而下的体系化立法为目标,着重从问题意识出发,遵循适应型立法(修法)试验性实践反馈性修法的动态立法模式,秉承无必要不立法”“能用政策手段替代则就不立法等原则,尽量在传统部门法的实体法框架中通过立改废释的方式实现立法目标。第二,关于实操性的人工智能立法工作,应在适应性法治的思路下,遵循立法规律,基于法律体系适用性的科学评估等前置程序,通过对现有法律法规进行适配性修订为主的原则,辅之以起草必要的单行法律、法规或者行政法规,比如《人工智能伦理法》或者其他特别法。第三,在修改法律法规具体条款或者设计民间示范法时,应始终秉承简单规则行为激励多元协同三位一体的治理框架,通过设定最小安全与伦理底线(如算法透明性、数据主权归属),尽量保留法律规则的开放性;借助各类行为激励措施(比如安全信用评级)等工具,建构外部性风险内部化的机制;依托地方政府试点、司法判例反馈与行业标准制定共同促进规则完善,等等。


本文试图在以下三个方面进行创新性理论操作:其一,方法论上融合复杂适应系统理论与行为经济学,将法律视为多元主体博弈下的动态网络,突破传统法教义学的静态分析,超越传统法律与创新研究中以市场激励为主的制度设计思路;其二,实践路径上提炼中国试验推广治理传统,构建中央底线约束地方场景化试点企业合规创新的协同机制,为全球技术治理提供非西方中心主义的范式;其三,制度设计上提出以行为激励为主要工具,聚焦人工智能外部风险内部化的机制设计方向,实现行业、企业自律与国家立法的有机衔接。


二、基于人工智能适应性治理需求的适应型法

人工智能技术的涌现性不可逆性正在颠覆传统法学的认知范式。当深度学习模型以超越人类设计者预设逻辑的方式持续进化,当算法决策深度嵌入公共治理与私人生活的毛细血管,法律的滞后性事实上不再局限于规则与事实的缝隙,而演变为制度理性与技术野性的结构性冲突。在此背景下,传统法学理论在人工智能产业的监管方面自然容易陷入三重适应性困境:静态规则与动态技术的时空脱节、中心化立法与分布式创新的权力错配、形式正义与算法暴政的价值撕裂。为回应这一危机,本文提出适应型法”“适应性法治的理论——一种以复杂适应系统为基础、以多层级反馈为驱动、以技术法律社会共同演进为目标的范式革新,在此基础上重组人工智能时代的法治形态。


(一)人工智能治理对法律适应性的需求


人工智能正在以高度动态化和不可预测的方式改变着社会生产与交往形态。在这个背景下,法律已经无法通过一次性、静态化、刚性化的规则设计来有效应对社会变化。倘若仍以集中固定的法典式立法思路全面覆盖丰富多样的应用情境,难免产生法律滞后或过度束缚创新活动的风险。基于此,法律领域开始出现一种日益凸显的适应性范式需求,即作为技术法律社会复杂适用系统的重要节点,法律制度需要通过多次迭代、渐进完善的范式来回应高速变动、异质多样的技术需求;需要通过嵌入立法沙盒”“算法影响评估等反身性工具,使法律具备自我观察自我批判自我更新的能力。具体来说,这种适应性的范式转变需求源于人工智能在技术层面呈现出前所未有的不确定性、不可解释性。人工智能系统在运行过程中不断进行自学习与参数优化,算法黑箱可解释性不足等问题使法律对归责方式、合规边界的预先设定面临严峻挑战。这决定了法律如果沿用传统事前穷尽式的立法模式,势必会产生内容滞后的风险。再者,人工智能应用跨越了医疗、交通、金融、公共服务等众多领域,不同场景的监管要求与风险敏感度各异,必须依托灵活的自我调整机制方能匹配具体需求。此外,企业在市场竞争与自主合规创新中积累了大量应用经验,若法律缺乏有效的反馈回路(生产机制),无法及时吸纳这些经验,就可能导致制度设计偏离实际运作。因此,构建一种能够允许先试先行、渐进修订、在市场与社会多重反馈中持续更新完善的法律模式,具有相当的现实必要性。


(二)适应型法的理论内涵


适应型法是回应型法(Responsive Law)的升级版本。回溯诺内特和塞尔兹尼克等学者的早期论述可发现,回应型法作为法律现实主义脉络的一个理论成果,强调使法制具有开放性和弹性,更多地回应社会需要。这种需要包括摆脱作为纯粹国家管控工具的封闭形态,转而更积极地对接社会利益关切,进而更好适应社会需求。回应型法的开放性诉求似乎意味着这种理论适用于大数据或者人工智能的监管场景。但传统回应型法的改革思路更多地依赖公共部门对社会意见的被动吸纳,也就是立法或司法机构在社会问题凸显后,对既有规则进行修正。相比之下,适应型法不只是强调法律对社会需求的敏感性,它更深入地引入了复杂适应系统等理论,将社会和技术系统内生的(基于当事人需求的)司法创新裁判、企业合规举措、地方立法实验等视为法律演进的重要自组织力量。在这种思路下,适应型法不仅要求立法与执法部门能够开放、包容地接收社会反馈意见,也鼓励平台企业、行业协会、公众团体共同推动规范的形成。例如,企业可以通过合规创新、建立自律规则,率先在内部实践某些数据保护、伦理审查、开源社区与算法审核制度,倘若这些实践被证明行之有效,司法或立法机构可以将其提炼为更具普适性的法律标准。地方政府的先行先试也可以通过区域性立法、监管沙盒等形式对新规则进行局部验证,再逐步向更大范围推广。这样一来,法律不再是被动等待社会诉求反应后进行的修补,而是在先期就创造条件,让多方主体在循环试错的机制中形成务实而灵活的规则设计。与回应型法相比,适应型法的另一个重要特点在于更加注重多元利益平衡与高频次迭代。回应型法更多地强调法律对具体的社会问题作出即时回应,而适应型法则试图将这种回应制度化、程序化,使之在面对高速变动的场景时,可以在短周期内完成问题识别规范修订再实践再修订的连续循环。通过这一循环,法律能够在不同阶段对算法公平性、数据主权、伦理价值、产业激励等多重目标进行反复权衡,并根据实际效果不断调整比重,从而避免法律刚刚颁布就落后于技术发展的尴尬局面。


(三)已有法学理论对适应型法需求的回应及其不足


在探讨为何需要适应型法以及如何满足适应型法需求前,主流法学界已经形成了多种思路与理论,试图从不同维度回应法律如何面对高动态、高复杂性环境带来的适应性挑战。这些理论虽不完全针对人工智能场景,却在法学方法论上为适应型法的建构提供了铺垫。首先,法律论证理论及作为其实践性工具的比例原则是常被学者用来应对法律问题的学术工具。法律论证理论强调通过严谨的推理程序,在裁判或立法过程中实现对不同价值、利益的有机协调。其中颇具代表性的就是宪法学与行政法学领域中广泛运用的比例原则。通过适当性必要性衡量性的三层次结构,立法者或司法者在面对人工智能技术风险与技术创新诉求时,可尝试在条文设计或司法裁判中进行价值衡量,从而避免简单化的一刀切或过度管制。这类主张虽然为法律平衡人工智能应用中的利益冲突提供了可操作的分析框架,但更多强调事后裁判或抽象原则与具体规则的匹配,导致难以应用于非正式制度,不能完全满足人工智能场景下持续迭代、快速反馈的实践需求。其次,系统法学对法律体系在高度复杂社会中的自我维持与功能适配提供了最为系统的理论阐释。卢曼等人的研究将法律视为社会系统网络中的一个子系统,强调法律须通过自身的程序、符号和规范,对外部环境的变化进行选择性回应,以维护系统的自我再生产。在人工智能飞速发展的背景下,系统法学提示我们,法律不仅应对外部技术冲击做结构耦合的调整,而且应保留相当程度的自我指涉性,以免被技术需求所裹挟而失去法律的自主逻辑。此外,系统法学所体现出对复杂性的化约,也是人工智能监管或者立法中的重要技术问题。不过,系统法学在技术应用领域落地时,常面临抽象度过高、对具体制度设计指导不足的批评,难以为具体展开逐步试点反馈修正的机制提供详细方案。最后,软法理论近年在国际与国内的法学研究中都获得了较大关注。软法通常是指不具有传统国家强制力但能在实践中产生重要约束或指引作用的一系列规则或准则,例如行业自律公约、技术标准、政府指导性意见等。人工智能立法需要在高速演化的技术环境中保持适度的灵活性。软法因其制定成本较低、更新迅速、对多元主体具有弹性约束等特性而备受青睐。然而,软法在法律地位与法律效力上的不确定性,使其在处理算法歧视、数据滥用等问题上可能缺乏刚性保障,存在被规避适用或执行力不足的问题。因此,若要有效运用软法,就需要更精细的配套机制设计——如将软法与硬法协同,使行业标准或指引在必要时能通过司法或行政程序转化为强制性规则,设立动态评估机制并及时更新制度。除了上述几条主要脉络,法学界也有不少其他理论流派,如法律多元主义主张在正式法律体系之外承认地方性、群体性或行业性规则的正当地位,从而形成多中心多声部的法律生态;法律实用主义则强调在具体场域中灵活采用能够解决现实问题的任何规范或技术手段。此外,还有学者从预防性法治和法律的在先规制方面进行探讨。这些研究从不同角度诠释了法律如何与快速变动的社会现实保持良性衔接或互动,为适应型法的发展提供了多元的知识资源。



(四)已有法律与科技创新关系研究的理论回应及其不足


在社会科学领域,直接聚焦法律与科技创新关系研究的理论,主要有创新经济学、科技法学(或技术法学)以及知识产权法学三种脉络。上述理论框架为理解与规范技术创新和法律制度之间的动态关系提供了多元视角。然而,面对人工智能技术的快速迭代、复杂的伦理挑战以及多主体协同治理需求,这些理论仍存在一定局限性,急需在深度与广度上进一步拓展。


其一,创新经济学的贡献及其不足。创新经济学融合了新制度经济学、国家创新体系以及法律与金融学的相关研究成果,综合运用理论演绎和实证研究的方法,通过产权界定、交易成本分析和契约执行等理论工具,为理解制度如何影响技术创新提供了重要的分析框架。新制度经济学强调,通过明确产权关系与完善市场规则,可降低创新过程中的交易成本,为企业研发与技术进步提供制度激励。例如,产权保护与知识产权制度的完善被视为激励企业研发投入的重要基础。尽管近年来该理论也受到行为经济学、演化经济学的影响,但其核心仍基于理性人假设与市场激励逻辑,主要关注经济效率与市场机制。在应对高度不确定且复杂社会目标的人工智能技术时,特别是解释类似中国等发展中国家的经济发展和科技进步问题时,该框架往往力有不逮。人工智能领域中普遍存在算法黑箱、伦理外部性等问题,单纯依赖产权激励不足以化解社会成本问题。此外,新制度经济学虽关注道德、宗教等非正式制度,但其对法律作用的理解多局限于经济性规制,未能充分回应人工智能治理中的伦理价值、公众信任与多利益相关方之间的动态博弈。例如,诺斯虽承认人的决策理性受到制度约束和信息不完备的影响,但仍假定市场主体会基于成本收益进行最优决策,而政府主要负责确立产权与矫正市场失灵。此种假设在复杂且未充分成熟的人工智能治理情境下,适用空间明显受限。此外,国家创新系统理论作为创新经济学的重要理论组成,也是一种复杂系统应用理论,它关注企业创新和学习过程,注重通过技术基础设施、教育系统和政策支持来构建有利于创新的生态体系。这种思路与本文的适应性法治理论有异曲同工之处,但该理论对法律制度的直接关注过少,将其研究成果转化为法律成果还需颇多的研究工作。


其次,科技法学(或者技术法学)的前沿探索与回应能力不足。科技法学着力研究法律与技术的双向互动,强调通过跨学科视角规制技术风险并促进技术创新。然而,科技法学常聚焦于技术特性与发展路径,因尚未充分吸收社会学与经济学的分析方法,导致在平衡技术创新与社会价值的制度设计上缺乏可操作性方案。特别是在人工智能治理中,科技法学理论的研究更多聚焦于技术特定的法律问题(如算法透明性或数据治理),而较少从复杂系统视角分析法律如何在利益相关方之间进行动态调适。此外,科技法学在具体规则设计上往往依赖线性逻辑,即法律规则直接干预技术发展,而未能充分考量人工智能技术的非线性迭代和复杂社会性需求。虽然软法与监管沙盒等灵活治理工具在该领域的研究中被广泛提及,但这些工具的具体制度化路径与法律体系的兼容性问题尚未得到充分解决。


最后,知识产权法学的贡献与适应性挑战。知识产权法学长期以来是研究技术创新与法律关系的核心领域,其通过明确创新成果的产权归属、构建技术扩散与创新保护之间的平衡机制,为技术进步提供了重要的法律支持。在人工智能领域,知识产权法学的重点集中于算法的可保护性、生成式人工智能的作品归属以及数据共享与垄断问题等。然而,面对人工智能的动态生成多主体协作特性,知识产权制度的适应性面临双重挑战:一是,如何在防止因过度保护导致数据封闭与技术垄断的同时保护创新者的合法权益,传统知识产权法也难以找到精准的调适方案;二是,知识产权法学多以市场逻辑为导向,对人工智能伦理考量相对较少,制度完善也缺乏公众参与机制。此外,生成式人工智能所产出的内容或已超出传统知识产权的保护逻辑,如何在保护创新激励与维护公共利益之间取得平衡,已成为紧迫的制度难题。


三、行为激励视角下的适应性法治

为弥补上述局限,可在前沿科技监管情境下对法律与科技创新理论进行扩展,将复杂适应系统纳入分析框架,并结合行为激励替代或扩充传统的市场激励逻辑,形成行为法经济学版的适应性治理模式,在此基础上进一步构建适应型法适应性法治的理想类型。该模式不仅继承了新制度经济学、创新经济学对法律适应性的关切与主张,也更适应人工智能技术的自学习属性与多利益相关方协同治理需求。当然,最近也有学者展开了下述研究:一方面,试图超越法律与科技创新理论,转而采用新制度经济学善用的机制设计理论,关注人工智能治理领域的信息不对称和规则优化问题,从而解决人工智能伦理等社会性规制领域的激励失效问题;另一方面,试图超越安全和发展的二元对立思维,从沟通视角来重新认识人工智能的技术原理与风险复杂性,从而在动态过程中形成规则。在这些理论基础上,适应性法治更加关注行为激励,即更加注重个体行为的心理和认知偏差,通过行为调整达成社会目标。


(一)适应性法治的理想类型建构


     第一,引入复杂适应系统理论:多主体反馈与自组织。复杂适应系统强调系统内部存在多元主体,它们在相对分散的条件下可通过交互与反馈实现全局性或结构性的演化。从监管视角来看,法律可通过设置简单、核心的基础规则共识性目标,将局部的企业创新试点、用户反馈、行业标准修订等整合到一个可持续的演化体系之中。立法可采用合作治理”“分支式治理的思路,不再自上而下一刀切,而是在不同业务分支、不同区域、不同技术领域逐步试点,推动局部成功经验融入整体法律框架。


第二,嫁接行为经济学:从市场激励行为激励。行为经济学提醒我们,市场主体在作出决策时,往往并非基于纯粹理性,常会受到心理偏好、社会规范、认知偏差等因素影响。人工智能治理同样如此。算法开发者、平台企业或公众并非只关心经济收益,也会受到合规声誉、伦理审查、用户观感等多重因素的影响。因此,法律应适度设置激励机制和助推软激励nudge)策略,让企业与用户能够在相对自主的环境中更安全、更负责任地应用人工智能。例如,通过税收优惠、算法安全评级、伦理认证标章等手段,实现对守法主体的正向激励;对违规或不负责任的技术使用者,则可结合行政、司法、信用惩戒等多重工具实现行为约束。


第三,精巧监管适应型监管的结合。精巧监管是近年来学术界基于数据和技术的优化监管手段,是在对最小政府干预、更加灵活、更加精准、多主体分层协同监管的探索后提出的概念。精巧监管强调以大数据、人工智能等技术辅助监管部门提升发现问题与处置问题的效率,同时注重为企业合规创新提供更开放的制度空间。将精巧监管纳入适应型监管的框架内,可以进一步扩宽监管沙盒”“监管科技等工具的运用边界,在短周期内完成规则测试风险评估制度迭代,使法律与技术发展节奏保持更紧密的衔接。


第四,搭建适应性原则与预防性原则的配合机制。适应性原则与预防性原则在技术治理中各有侧重,二者并非相互对立,而是可根据风险性质与社会价值选择适配的不同监管原则。一般而言,预防性原则强调在科学证据尚不充分但潜在危害巨大时,立法者或监管者应当采取更为审慎或严格的约束,以避免不可挽回的公共安全或生态损害。这往往需要对某些高风险技术施加在先限制甚至暂缓应用某项技术。与此不同,适应性原则更注重在不确定性较大的情境下,通过分阶段试点与动态迭代的方式,让监管规则与技术进展同步演化,从而在保障安全的同时保留技术创新空间。对于那些短期内难以形成科学共识但又可通过小范围试验逐步推广有效评估与管控风险的创新技术而言,采用适应性原则进行规制最为妥当。而一旦技术本身可能引发深层且不可逆的威胁,或事关公众高度关注的伦理底线,则预防性原则将占主导地位,以刚性立法先行锁定风险阈值。综合运用上述两原则,立法者方能在安全保障与持续创新之间取得更为平衡的治理效果。


第五,社会性价值的嵌入与多维目标的平衡。正如上文所述,制度经济学往往围绕效率和产权保护两个核心目标来构建规则。而在人工智能时代,法律还需融入更多社会性目标(例如公共信任、伦理保护、国家安全及公平竞争等)。将复杂适应系统和行为经济学视角引入后,法律不仅要对市场主体的经济行为进行规制,而且需要通过行为激励策略引导市场主体在数据处理、算法训练、应用场景拓展等方面自觉承担社会责任。因此,人工智能法学研究有必要将研究对象扩大到人工智能伦理审查、价值对齐等制度设计。


(二)简单规则多次迭代的方法论


第一,从静态约束到动态演化。传统的法律规则往往依赖固定化、细密化的条款设计,力图以全面覆盖的方式规制新技术风险。然而,人工智能技术的指数级演进速度使得立法者难以实时捕捉新兴问题,导致法律出台后很快出现滞后或漏洞。与之相对,适应型监管鼓励先设定简单且足够的底线规则,再通过多次迭代优化,允许企业、研究机构和地方政府在基本约束之下进行探索性技术实践,并在积累足够经验后进行法规调整。通过不断的修正,法律不仅能在早期为市场提供合规指引,而且能在后续演化中为技术创新保留足够的包容度。


第二,简单规则行为激励的内涵。简单规则可被视作法律体系中类似于强化学习的奖励函数:立法者并非事先设计出覆盖所有情境的烦琐条文,而是设定若干关键目标或底线,用最简洁的方式指明何为合规违背公共利益。就像在强化学习中,智能体会依据奖励或惩罚信号持续优化策略,法律也可通过这一类最小化约束,驱动社会主体在复杂、动态的场景中寻找更优的合规路径。如此一来,立法只需明确应当坚守的核心价值(例如算法公平、数据安全、伦理红线),而无需对每个具体步骤作出穷尽性规定。此种机制可赋予技术和市场充分的探索空间,让自适应在不断尝试与反馈中自然涌现。由于简单规则并不足以维持复杂系统的良性演化,因此有必要进行奖励惩罚设计,也就是建立行为激励机制。换言之,法律通过多样化的正向激励(如税收优惠、公共采购优先、伦理认证标章)和负向制裁(如信用惩戒、行政处罚),使企业、研究机构乃至公众在遵守最低限度的制度基础上,上述主体亦能被鼓励去主动探索更高标准、更具社会责任的创新方案。类似强化学习中的动态调优过程,这些激励工具会在实践中不断校准效果:若出现技术滥用或不当行为,惩戒随即触发并提醒开发者修正;若合规创新带来显著安全收益,则正向激励将进一步增强该模式的可持续性。借由最简规则+迭代激励的双重路径,法律在复杂适应系统里不再是机械的控制者,而成为设定方向与目标的教练,帮助整个社会技术系统在反复试错中逐步迈入兼具安全与创新的理想轨道。


第三,多次迭代与循环式调适。借鉴强化学习的理念,法律体系可将简单规则视为类似奖励函数的基石,并通过探索反馈修订的循环过程实现动态调优。在探索阶段,企业、地方政府等主体在既定的最简规则和核心底线下开展产品落地、监管沙盒试点等活动,就像智能体在环境中试探不同策略以获取初步反馈;随后,在反馈阶段,司法判例、社会舆论以及用户体验等多渠道的反馈信号,类似奖励或惩罚信号,为现行规则的有效性提供评估依据,并揭示潜在的规则缺口或创新亮点;最后,在修订阶段,立法者依据这些反馈调整制度:若反馈显示安全底线设置过于宽松或伦理风险未能被充分反映,则适时收紧规范;反之,若实际运行中未见严重冲突,则继续保留制度的弹性空间或进一步鼓励合规主体追求更高标准。


总而言之,适应性法治是在跨学科改造创新经济学、新制度经济学等有关法律与创新关系理论的基础上提出的主张,它不再单纯关注市场效率或投资保护,而主张将算法迭代、技术伦理、社会信任与多主体协同治理有机整合进监管逻辑。适应性法治的核心在于简单规则多次迭代,并通过类似于强化学习中的行为激励设计(正向激励与负向制裁相结合)的机制,引导各参与主体在快速变化的科技生态中实现合规与创新的平衡。虽然新制度经济学在关注法律适应性、实证研究以及制度激励效果方面具有一定优势,但只有在此基础上融入复杂适应系统和行为经济学主张的动态调整要素,才能更切实地应对人工智能时代多环节、多主体协同治理所带来的挑战。这一过程使适应性法治不仅与学界对智能监管、分支式治理等概念的倡导相呼应,而且能成为中国乃至全球在人工智能法律治理领域极具潜力的制度创新路径。


四、适应性法治理论在人工智能立法领域的初步应用

为能够更接地气地将基础理论贯穿于立法工作,下文将从制度生成机制的角度,对适应性法治理论在人工智能立法领域的应用作一个初步讨论。正如上文提及的,本文反对自上而下的体系化立法,即反对制定专门的人工智能法,因此下文涉及具体条款拟制的讨论,主要是从民间性的示范法起草角度出发展开的讨论,目的是在相关部门对现行实体法进行适用性测试和更新(释改立废)时,提供一个体系性的参考。


(一)人工智能法律制度的适应性生成机制


为了确保人工智能法律体系能够随着技术发展不断调整,本文主张概括已有国内外关于国际科创中心建设的经验,构建多层次法律适应性机制,使法律规则的生成、调整能够涵盖不同层次的法律运作模式。


第一,底线与开放并行立法思路的进一步厘定。在全国人大层面,通过颁布适配人工智能技术的规范性法律文件,明确确立底线与开放并行的立法思路。正如上文不断强调的,人工智能立法若仅仅依靠静态的、细密化的法典规则,就无法应对技术飞速演变所带来的新风险。立法思路需要调整,如,可按照动态适应性原则,通过附加时限的专项授权形式,要求国务院通过滚动式立法不断更新最少但必要的底线规则,例如立法设置算法安全义务、隐私保护与伦理红线等,确保公众利益与社会价值免受重大损害;同时,在具体的制度设计上保留足够的弹性与修订空间,以便在产业实践与司法判例反馈之后,立法能够及时得到更新与补充。在两个专家建议稿中,学者们已经尝试对数据保护、算法评估、伦理审查及人工智能产品管理等关键环节进行体系化设计,这在一定程度上填补了原有法律的空白。不过,从适应型监管的视角来看,这些建议稿在一揽子式的合规义务与条文设定上,需要进一步体现基础底线+分阶段调整的立法逻辑。


第二,进一步发挥司法裁判在制度生成中的功能。一般认为,在20世纪末21世纪初,美国和中国的法院系统,在一种与立法机关、行政机关协同的思路下,利用司法程序的适应性机制,即根据当事人的需求自下而上地供给制度,积极降低平台企业的责任及其合规成本、降低严苛的隐私权保护标准以及采取较为合理的知识产权保护基准,为科技创新所必需的风险投资等金融创新提供了及时的制度供给,特别是通过司法判决创制性应用避风港规则和红旗标准,两国的互联网平台借助这一免责条款的庇佑,得以迅猛发展。有鉴于此,如何延续我国法院在网络平台经济、金融创新等领域的适应性制度供给的司法传统,是一个法学界必须重视的理论课题。从中短期来说,可以从包括但不限于以下几个具体的方面积极推进制度完善:(1)我国立法机关应采取开放的心态,超越已有的法律保留理论,特别是大陆法系国家”“成文法系国家的制度定位。司法解释以及指导性案例在科技创新领域的适用采取扩张性的法律解释思路,保持一种更加宽容的态度。(2)在科技创新领域,中国的法院应继续有意识地积极扮演政策法院的角色,总结好自己在促进全面创新过程中的经验,积极供给回应性的制度。立法机关还应及时对法院与立法、行政等机关的协同经验进行制度性概括或者固化。(3)在绩效考核制度方面,应给予审判一线的承办法官或者合议庭更多自主创新探索的空间。比如,对于知识产权、金融、互联网审判等涉及创新领域的专业法院、专业法庭的法官,可以探索采用无量化考核的人事管理制度。(4)从提升涉科技创新领域裁判文书质量的角度出发,强制规定从事科技创新审判的法官必须拥有一个自然科学的学位,以防止知识结构的偏差影响司法裁判的科学性。


第三,保障和优化科技企业制度的自我生成机制。在快速进化的人工智能生态中,大型平台企业由于掌握算法、数据等关键要素,常常走在技术与合规实践的前沿。在缺乏完备法律规范时,这些平台可通过内部道德审查、黑盒测试、开放接口或算法解释机制等自律举措,先行塑造行业自治规则。法律应当赋予企业更多的制度创新空间,鼓励企业通过行业自律形成符合市场需求的人工智能治理标准。具体包括两步:第一,自主合规与行业示范:企业为规避商誉风险及潜在诉讼压力,通常乐于通过内部制度创新来保证算法安全、透明和合规。若其成效良好,这些做法在行业内便具备示范意义。第二,纳入公共规则:政府或立法机关在综合评估这些企业的先行实践做法后,可将其优秀经验法治化,如发布部门规章、标准指导性文件或在全国性立法中写明对这些自律标准的认可与推广。这样便可完成从企业标准公共法规的转变过程。然而,这一机制必须谨慎运用,以防止企业通过形式上的合规行为规避实质性的法律责任。可以通过设立动态合规审查机制,确保企业在创新过程中仍然承担相应的法律义务,遏制企业借助政策套利和市场垄断的行为。


第四,地方实验性立法的试点与拓展。基于人工智能技术的非线性迭代特征,构建政策试验反馈学习规则迭代的闭环,通过小范围先行先试来降低系统性风险,加速法律与技术的同步演化。面对不同区域的经济基础与产业结构,地方政府可依托地方立法机制,对部分人工智能应用场景(如自动驾驶、智能医疗、跨境数据流动等)进行差异化先行先试,从而获得社会的治理反馈意见。具体也包括两步。一是,差异化试点:通过对不同场景设立不同的评估指标与合规要求,地方政府可验证具体制度设计的可行性并及时进行调适。二是,成果复制与推广:当某一地区试点的制度实践经反复验证被证明有效,便可将其上升为更高层级的立法或在更大范围内推广。若试点失败或出现重大隐患,则社会仅在小范围内承担风险与损失,避免多米诺骨牌式的全国性制度失灵。未来,可以考虑通过《立法法》的修改,在国家层面设立人工智能法律试验区,允许地方政府在人工智能治理方面进行更大范围的制度创新,并通过定期评估和反馈机制,及时将地方立法经验转化为全国性法律规则。


第五,打造多主体参与的专家组织机制。人工智能立法还需依赖行业组织、科研机构、公众等多元主体共同参与,以保证决策的科学与透明。可考虑在全国人大法工委之下设立人工智能立法适应性评估委员会,根据情势需要组织跨学科专家评估和公众听证等程序,通过程序化的方式实现技术、法律和社会的三方对话。评估委员会可定期对现行所有实体法的适应度进行量化或定性评估,并提出修法或行政指引建议,从而在技术跃迁的不同阶段保持法律的前瞻性与可行性。


(二)动态适应性原则的贯彻落实


第一,突出高风险场景的模块化管控。已有公开的各类关于人工智能立法的专家建议稿虽然对自动驾驶、医疗AI等高风险场景都有所提及,但大多以原则性要求或较为笼统的责任归属来规制风险行为,且较为依赖线性化的分类分级原则。未来若能对最小安全与伦理底线做制度细化,并辅以可操作的管控流程或合规标准(如测试条件、外部审计、事中监测机制),将有助于为各行业提供更明晰的行为边界。与此同时,立法可考虑明确授权地方政府或行业主管部门对高风险人工智能作先行先试并滚动修订安全标准,通过试点来校验合规的可行度。


第二,为前沿技术保留制度弹性与更新机制。出于种种原因,现行法律法规对于多模态生成式人工智能、情感计算、脑机接口等前沿技术,尚未设立明确的审查与评估路径。为了更好地促进创新,并有效地控制风险,可考虑在相关的单行法律、法规以及行政规章的文本中设定定期技术评估+动态条文更新条款,允许法律条文在一定周期内,依据专门委员会或行政主管部门的建议、社会调查、行业实证数据来进行修订;同时,为更有效地应对新兴技术带来的潜在伦理与安全隐患,应及时将相关问题纳入立法范围。


第三,强化多元化的信息披露与外部监督。已有人工智能立法研究在强调平台和开发者的算法透明、数据合规义务时,更多是从传统监管思路出发,将责任嵌入报批、备案、承诺这一类自上而下的机制。相关立法若能进一步明确公众参与或行业自律机制(如开源社区、平台自审委员会)、第三方独立审计机构的监督,就可以更充分发挥社会多方共治的潜力。通过立法层面对外部监督与反馈的程序性保障,既能降低政府单一监管的负担,也能使适应型监管更好地吸纳自下而上的制度调适要求。


第四,精简与聚焦:避免条文覆盖过度或责任重叠。已有人工智能立法研究受欧盟《人工智能法》立法思路影响,普遍试图一揽子解决算法合规、数据共享、个人信息保护、伦理审查等诸多议题。这种思路会导致责任边界交叉或监管重叠,造成实际执行中合规负担过重。适应型监管主张在立法初期先确立最核心风险的底线责任,其他风险监管则可以采取更为具体且分散的条款来规制,留待二级法规、部门规章或地方立法试点来细化。这样既可以确保立法的突出重点,也能为后期制度的滚动修订预留空间。


第五,增设立法评估及修订程序。传统立法往往缺乏制度化的立法后评估程序,使条文本身难以与技术发展同频共振。建议所有涉人工智能产业的法律法规在制定时增设立法效果评估条款,明确规定:应定期召开跨部门、跨学科的专门评议会议,就法律的适用效果、企业合规成本、公众反馈等方面进行量化或定性评估。对发现的重要缺陷或新问题,可通过快速修订程序或者授权部门规章细化规定的方式进行修正。这种轻量化、可迭代的立法更新机制,恰能与人工智能产业的高速演化形成相对匹配的治理节奏。


(三)如何强化行为激励:兼顾风险控制与创新促进


在传统法律治理模式下,立法者通常依赖合规义务工具,通过行政许可、审批和处罚等刚性手段来约束企业的行为。无论是安全防范、创新发展还是权利保护,人工智能立法的核心目标本质上都与如何调适企业和研发者的行为选择密切相关。如果仅仰赖对违法行为的事后惩罚,企业就会趋向保守或被动地遵守最低合规标准;若进一步强化行政审批或严苛进行事前审查,则可能损害技术进步与商业发展的活力。相较而言,行为激励的思路应该是通过财政投入、税收调控、信用评级、产业配套、行政奖励、定向采购等一系列正负向诱因,通过高权行政与新型行政措施、硬法与软法的有效配合,让企业在追求经济利益的同时,自愿或主动考量社会价值与公共伦理,从而实现企业乐于合规而非不得不合规的效果。换言之,如果运用行为法经济学的理论思路,企业的研发与合规决策并非完全理性计算的产物,而是会受到一系列认知偏差、预期激励和制度框架的影响。因此,政策工具的设计需要结合预期效用理论、前景理论以及软激励(Nudging)机制,在降低企业短期合规成本的同时,塑造长期的创新激励结构,使市场主体不仅主动合规,而且愿意主动投入研发,以获取未来更高的市场回报。


第一,动态化侵权责任机制的打造。传统侵权法中,严格责任和过错责任常被用于规制高风险行业,但行为法经济学的研究表明,这些责任原则在实践中可能引发逆向激励问题,甚至削减企业的安全投入。严格责任可能导致企业因预期巨额赔偿而选择退出市场,而过错责任则可能使企业采取最低合规策略,仅满足法律规定的最低标准,而不会主动优化安全设计制度。因此,在人工智能治理领域,贯彻适应型监管,就需要引入动态化的侵权责任机制,结合经济激励、风险定价与法律责任调整,以推动企业内生性地提升安全标准。通过动态化侵权责任机制与市场激励工具的结合,人工智能监管能够在不削弱创新动力的前提下,促使企业不断优化安全性,形成合规竞争优化的自我强化机制。这种方式不仅能够减少因道德直觉导致的过度规制,而且能有效填补传统法律责任制度在高技术风险治理中的漏洞。


第二,数据确权思路的优化:让企业主动保护用户权益。首先,在个人数据收益共享方面,传统的数据保护法律框架主要关注用户隐私权的保护。行为法经济学的研究表明,用户的权利感知与收益获取密切相关,即当用户认为其数据对企业具有显著价值,但却无法获得相应回报,可能会降低用户对平台的信任和合作意愿。因此,政府可以推动数据收益分配激励机制,鼓励企业在合规数据交易或数据分析活动中给予用户一定的经济回报。例如,企业可以采用数据红利计划,即用户在同意平台使用其数据时,能够获得积分、折扣或直接的经济收益,从而增强用户数据共享的积极性。此外,政府还可引入动态数据定价机制,允许用户根据数据敏感性、自身偏好及使用场景设定不同级别的授权,使提供高价值数据的用户可获得更高的补偿。这种激励机制不仅可增强用户对自身数据的掌控权,还能提高企业的数据治理透明度,最终促使平台在市场竞争中更加注重用户权益保护。


第三,关于知识产权开放共享。人工智能技术的快速发展需要数据与算法的广泛流通,过度封闭的知识产权保护可能会导致技术扩散受阻,甚至形成市场垄断。行为法经济学强调,精细化的产权结构设计和适度的强制许可制度,可避免市场主体因心理所有权效应而对数据或技术资源的过度保护,从而促进知识流通与市场竞争。政府可以推动激励兼容的知识产权共享机制,即在公共利益高度相关或社会需求迫切的关键技术领域(如智慧医疗、公共交通等),对获得政府资助的企业设定可控数据开放制度,要求其在享受政策支持(如税收优惠或政府采购)时,开放部分训练数据或非核心算法模型,以促进行业整体技术进步。此外,政府还可设立动态强制许可制度,结合前景理论,在企业取得高额市场回报后,设定非排他性使用权或数据共享要求,确保关键技术能够更广泛地造福社会。这种递进式的许可模式有助于减少企业对强制技术共享的抵触心理,还能够避免对技术创新的过度限制。


第四,关于财政激励。传统的税收优惠与补贴政策往往基于企业的完全理性假设,假定企业会在税收激励的驱动下自动增加研发投入。然而,行为法经济学的研究表明,企业管理层对长期收益的折现率往往过高,即存在短视偏差,导致企业更倾向选择短期回报更高的投资方向,而忽视前期成本高、周期长但长期收益更可观的基础研发。因此,政府可以引入动态税收优惠机制,即对于持续进行合规研发投入的企业,提供递增式税收减免。例如,若企业连续五年符合人工智能伦理标准并投入安全研发,对其适用的税收优惠比例将逐步增加。这种设计利用损失规避效应,使企业因害怕失去累积税收优惠而持续保持高合规标准。此外,为应对高风险、高投入的人工智能伦理研发,政府还可以引入研发风险共担机制,设立研发失败补偿基金,为符合伦理安全标准的企业提供部分失败损失补偿。这一机制能够纠正企业管理者的概率加权心理倾向,即高估小概率失败的可能性,从而减少对高风险、高成本项目的回避行为。


第五,公平感与企业创新。在市场竞争激励方面,企业的公平感知往往会决定其合规与创新的积极性。企业若认为监管政策对竞争对手更加宽松,可能会选择最低限度合规标准,而非主动提升技术安全标准。因此,政府可以通过市场准入、行业排名、公共信誉公开等手段,建立公平的市场竞争环境,以激励企业在合规与创新之间找到最优平衡点。例如,政府可利用信号传递理论,参考软激励理论,推出伦理科技品牌认证,为符合高伦理标准的人工智能产品设立伦理科技认证标章,并在政府采购、市场准入、税收优惠等方面给予竞争激励。这不仅能降低企业的合规成本,而且能使伦理标准成为市场竞争中的增值要素,而非单纯的合规义务。此外,在公共采购和市场准入环节,政府可以采用竞争性合规竞标的方法,即要求企业在竞标过程中提交其公平性、安全性的数据保护等方面的合规方案,并在评分机制中给予额外加分。此类机制能够通过市场竞争压力,促使企业主动优化自身的合规水平,而非仅仅被动接受监管。


第六,竞争性公平激励机制。在算法公平性激励方面,传统的法律责任制度往往采用严格责任过错责任模式,即企业若因算法偏见导致歧视性决策或损害用户利益,需承担法律责任。然而,行为法经济学的研究发现,单纯的惩罚机制可能会引发企业的消极合规行为,即企业仅满足最低限度的法律要求,而不主动优化算法以减少社会风险。因此,政府可以运用竞争性公平激励机制,即通过设立公平算法认证、政府补贴、奖项激励等方式,使企业在市场竞争中因优化算法公平性而获得实际利益。例如,政府可设立公平技术奖,鼓励企业自愿参与算法公平性评测,并对表现优异的企业提供政策支持,如税收减免、政府采购优先权等。此外,还可采取差异化监管策略,即对于能够主动披露算法透明性、接受公平性审查的企业,降低其行政审查频率或减少合规成本,提升高透明、高公平的企业享有市场竞争的优势。



五、结语:中国式法治视野下适应型法的未来

本文仍有诸多尚未充分展开或尚待深入研究的问题。


首先,人工智能的跨国界属性决定了任何立法尝试都不能仅限于一国或一地的封闭语境,如何在多边场域下实现适应型立法的协调与耦合,尤其面对国际数据流动、算法输出管制与数字主权等复杂议题,仍有赖于更全面的国际法视角和跨国机制设计。


其次,随着脑机接口、多模态生成式人工智能等前沿技术逐渐进入实施阶段,技术不确定性与伦理风险或将进一步放大,现有的适应型监管工具在应对超大规模或超高风险的场景时是否同样有效,需要持续的动态评估与实证检验。


再次,本文强调的行为激励模式也只是初步勾勒了激励反馈修订的基本框架,制度的完善尚需更多实证案例与跨学科合作来论证具体激励措施的有效性、可操作性以及对社会公平的可能影响;政府与平台企业的风险博弈如何被纳入这一框架以防止企业政策套利,同样是值得后续制度细化的重要课题。此外,从国家治理层面而言,适应性法治的成功还依赖政治与行政体制的灵活度、司法对新型技术风险的审慎态度以及社会对试错过程中可能出现的收益与负面外部性的宽容度。若缺乏宏观层面的制度配合,单纯从法律条文层面追求适应性,难免陷入理念先进、落实乏力的尴尬处境。需要指出的是,这种强调动态优化与开放性治理的法律范式,并不否定法教义学对于人工智能立法的基石作用,只是在具体规则的修正与引导机制上,更需结合实证研究、法律经济学以及技术伦理评估等跨学科方法,进而既确保立法既符合本土实践需求,又能在快速演化的技术环境中保持足够的适应性。


最后,在全球新一轮科技竞争和产业变革大背景下,将中国式法治中试验推广传统所蕴含的制度优势转换为具有普适价值的治理范式,还有赖于持续的理论创新与实践推动。未来若能在国际交流、地方立法以及企业合规创新中积累更多详实案例,并与复杂科学、系统工程、社会学等领域开展跨学科对话,有望使适应性法治理论获得更坚实的实践基础,并为全球人工智能治理贡献更具启发意义的中国方案



原文刊载于《法律科学》2025年第3期,感谢微信公众号法律科学期刊授权转载。