当前位置:首页 > 文献资源 > 论文著作 > 理论推演
陈亮|人工智能立法体系化的困境与出路
2024年05月21日 【作者】陈亮 预览:

【作者】陈亮

【内容提要】



人工智能立法体系化的困境与出路





陈亮 西南政法大学人工智能法学院教授




当前,我国正处于从网络时代迈向智能时代的关键转型期。以自动驾驶、AIGC、智能推荐等为代表的颠覆性人工智能技术,在为数字社会变革注入强劲动力的同时,也为算法黑箱的治理、数字鸿沟的消除、人工智能稳定运行的保障等新型社会问题带来巨大挑战。这些社会问题呈现出交叉性、整合性和动态性特征,难以为传统法律部门所涵盖。人工智能作为一种复杂系统,往往牵涉更广泛的组织、人员以及社会背景,使得传统的“公平”观念往往随个案的变化而异其内涵,其具体含义难以把握和归类。这大大超越了传统部门法律关系所立足的线性、均衡、简单还原的社会关系构造,使得传统部门法应对人工智能社会问题时难免出现圆凿方枘的尴尬局面。

各国政府为摆脱这一尴尬局面,已在人工智能领域制定出数量可观的政策、法规、规章和规范性文件,以弥补传统部门法“单兵作战”之缺陷。遗憾的是,这些规范相当一部分条款依旧脱胎于传统部门法的固有理念和调整思路,不仅整体上呈现出零碎、分散的非体系性特征,也难以充分应对人工智能引发的一系列复杂性、系统性社会问题。改变“头痛医头、脚痛医脚”的人工智能立法模式,以体系化的思考方法制定出完备的人工智能法律法规体系,已悄然成为各国人工智能立法的大势所趋。在法典化浪潮来袭的当代中国,思考人工智能立法体系化的困境与出路,便成为法学界和立法机关不得不研究的时代课题。

一、人工智能立法体系化的时代意义

(一)人工智能立法体系化是回应国家战略的重要举措

《新一代人工智能发展规划》提出了人工智能法律法规体系建设“三步走”战略,拟用10年时间分三步建成完备的人工智能法律法规体系,以便与人工智能伦理体系、政策体系一道,同构为立体化、协同性的人工智能治理模式。首先,人工智能立法体系成为人工智能国家治理体系的关键枢纽,“三步走”战略实质上就是人工智能立法的体系性程度不断提升、制度内容不断丰富、立法质量不断提高的过程;其次,基于“敏捷治理”原则要求,体系化立法需要能够映射人工智能产品和服务全生命周期、贯穿人工智能治理全链条,以承载科技伦理价值、提供国家强制力保障;最后,人工智能立法离不开科技政策和伦理规范为其输送更具时效、更加贴合市场运行逻辑的立法素材,以期尊重人工智能发展规律、促进人工智能场景创新与立法监管相协调,进而增强领域立法的社会适应性。因此,只有将人工智能立法体系化置于“政策—立法—伦理”三位一体的人工智能治理体系框架下观察,才能凸显其“问题意识和领域特质”,进而推动人工智能国家治理体系不断优化。

(二)人工智能立法体系化是进行科学立法的题中之义

《立法法》新增条款的实质解释使得“体系化”成为科学立法的应有之义,“立法体系化”自此拥有明确的合法性依据和具体的法律判断标准。从立法技术看,该部宪法性法律将“法典编纂”作为实现科学立法的重要形式,而体系性正是法典的生命力所在。从立法内容看,科学立法的衡量标准得以明确,首当其冲的便是“系统性”这一立法体系化最直接的表征;“整体性”不仅要求不同立法之间形成有机衔接,而且立法内部要素之间也要保持意义脉络关联;“协同性”则要求立法机关根据立法体系开展有机协作、进行联动式立法,或者针对具有整体意义脉络关联的法律法规进行一揽子立法。虽然《立法法》没有从字面上明确表述“立法体系化”,但实质上“立法体系化”已经上升为科学立法原则的基本要求,进而对我国人工智能立法模式形成基本约束。

(三)人工智能立法体系化是构建自主知识体系的必然要求

形成中国自主创新的人工智能领域法学知识,需要体系化的人工智能立法为其提供素材支撑,以便在人工智能法教义学走向独立、成熟的过程中,以整体主义方法反哺法治实践。具言之,人工智能法学学科体系建设,需要体系化的立法提供清晰、有序的“知识目录”;人工智能法学理论体系完善,需要体系化的立法形成科学、协调的“知识载体”;人工智能法学学术体系形成,需要体系化的领域立法呈现法律变迁的“知识脉络”;人工智能法学话语体系建构,需要体系化的领域立法传递逻辑自洽、具有说服力的“知识表达”;人工智能法学教育体系完备,需要体系化的领域立法担当契合实践、高度专业的“知识中介”。可见,在“知识—权力”意义上,若想通过法治实现对人工智能产业发展的充分激励、人工智能应用场景的合理规制以及涉人工智能纠纷的有效裁决,人工智能立法体系化自然成为生成法学知识、塑造认知模式的逻辑前提。

(四)人工智能立法体系化是顺应时代潮流的正确选择

在人工智能法治领域,加强立法体系化顺应了人工智能体系性治理的全球大趋势,欧盟、美国、英国、巴西等已经认识到体系化立法的必要性并付诸实践。其立法态势总体上呈现出三大倾向:一是反思人工智能领域非体系性立法可能造成的“市场碎片化”“合规要求相矛盾”以及“归责不确定性”等弊端;二是强调对人工智能进行专门立法,以便为国家政策实施或者伦理原则“转译”提供法治化通道;三是制定框架性领域立法,确保其内容对未来保持适度开放。可见,加强人工智能领域立法体系化进程,以框架性专门立法纠偏人工智能领域立法体系性缺失之弊,已是人工智能法治的大势所趋。

二、人工智能立法体系化的主要困境

包括我国在内的全球人工智能立法,大体包括“规范数据使用的数据规则”“针对特定AI应用程序或应用程序域的AI规则”“适用于人工智能广泛应用的通用人工智能规则”“应用程序特定的非人工智能规则(适用于特定活动,但不适用于人工智能)”以及“通用的、跨领域的非人工智能规则”等不同层次。这些立法整体上表现出人工智能概念含混不清、人工智能法律规范定性不准、人工智能立法理念隐而不彰、人工智能立法范围边界不明等缺陷,亟须加快体系化进程。

(一)人工智能概念内涵含混不清

我国涉人工智能规范文本中鲜见清晰界定人工智能本质和特有属性的明确定义,大多数文件只是在涉及人工智能的语句中零散地给出特征描述词或者类型归属词,难以准确阐明何谓人工智能。即便深圳、上海的人工智能立法和解释人工智能术语的国家标准专门制定了揭示人工智能意涵的定义性条款,但三部文件中人工智能的属概念分别侧重“行为论”“本体论”和“知识论”,种差特征在“人工智能的方法”“人工智能的结构”以及“自主性标准”等方面存在分歧,并且“是否需要列举人工智能的外延/类型”也尚未达成共识。

(二)人工智能法律规范定性不准

立法实践和学术研究对涉人工智能规范的谱系定位、规范属性在“公法和私法二元区分”理论下分化为不同阵营。譬如,典型的涉智法律行为——使用人脸识别技术处理个人信息——被司法解释纳入私法意义上“信息处理者侵害自然人个人信息权益”的民事法律关系。又如,学者在描述人工智能立法特点时将《网络安全法》《刑法》对个人信息的保护、《反垄断法》对“利用数据和算法实施垄断”的规制,以及智能网联汽车、人工智能医疗、互联网信息服务算法、深度合成算法等领域的行政管理规范,都归入人工智能立法,而这些规范表现出显著的“公法”属性。此外,还有学者对人工智能立法的定性超越了“公私二分”,认为其是“领域法”规范或者“核心是风险控制与问责的风险立法”规范。人工智能法律规范区别于非人工智能法律规范的本质特质到底是什么,法学界和实务部门还未达成令人满意的共识。

(三)人工智能立法理念隐而不彰

涉人工智能规范之上缺乏一以贯之的基本理念来统合各类价值,不同价值之间也缺乏消解冲突、平衡利益的决断依据。同样是针对“高风险”的人工智能,《上海人工智能条例》严把准入关,设置了“清单式管理”和“合规审查”两道门槛,并且明确规定合规审查的实质标准是“必要、正当、可控”;而《深圳人工智能条例》只是在程序上要求“事前评估”和“风险预警”,没有从实体上直接划定人工智能类型“禁区”,相对而言市场准入空间较大。究其原因,一方面,人工智能治理要求“包容共享”“开放协作”“共担责任”,相对统一的准入门槛有利于防止市场碎片化、促进跨地区资源共享,并在地区协作治理时降低责任分配的协作成本;另一方面,人工智能治理也要求“安全可控”“敏捷治理”,预先设定较高准入门槛也是倒逼安全措施升级、能动防范风险的强有力手段。因此,两部条例在准入标准上的差异化规定,不仅仅是考虑到地方资源和发展方向的特殊性,背后反映的深层次问题更是不同价值之间难以平衡,只能暂时“妥协”地偏重单一价值,而根源正是在于当前立法没有确立能够合理融贯各类价值的根本理念和有效消解价值冲突的合理方法。

(四)人工智能立法范围边界不明

涉人工智能规范在“效力位阶”和“客体类型”上呈现出“非正式法律渊源数量多于正式法律渊源,并且正式法律渊源以部门规章和地方性立法为主导”以及“涉网络要素的规范数量最多、涉数据要素的规范数量较多、涉人工智能整体的规范次之、涉算法要素的规范较少、涉算力要素的规范最少”的体量分布格局。从“规范内容”看,网络立法侧重规制由现实空间延伸或迁移至网络空间后被“放大”的社会风险;数据立法重在维护数据/信息安全,在此基础上激励大数据产业发展、促进公共数据开发利用;针对人工智能产品的立法侧重促进智能制造业升级,并且重点扶持智能网联汽车行业,而涉及“通用人工智能”和其他应用场景的立法较少;算法领域主要是规制“深度合成服务”和“算法推荐服务”的部门规章,涉及“算力/云计算”的正式法律渊源缺位,即鼓励大模型创新应用和算力基础设施完善的规范基本是“红头文件”类的政策指引,目前该领域尚未出台专门立法。此外,涉人工智能规范也存在于名称上不直接冠以“智能或其要素”但某些条款涉及该客体的立法中,譬如规制“推荐类算法”(大数据杀熟)的《电子商务法》第18条,此类条款散见于《网络安全法》《个人信息保护法》《数据安全法》等法律法规,总体上数量稀少。整体而言,诸多涉及人工智能要素及其整体的位阶有别、内容迥异的法律规范是否都可以纳入人工智能立法体系,目前没有明确的判断标准。

三、人工智能立法体系化对象的识别标准

人工智能立法体系化必须解决的一个前提性问题,是大体框定人工智能法应予规整的法律素材的具体范围,也就是在法律工作范围内进行体系化作业时应予安排进特定秩序的众多规范与事实。现实情况是,法学界和实务部门多将广义的涉人工智能法律规范简单混同于作为人工智能立法体系化对象的真正意义上的人工智能法律规范,以至于将人工智能法变成一锅无所不包的“大杂烩”。这不仅无助于构建中国自主的人工智能法学知识体系,也使得我国的人工智能立法、执法、司法和守法无所适从。欲从广义的涉人工智能法规范中拣选出真正意义上的人工智能法律规范,须经“人工智能的法律内涵”“人工智能法律规范的本质属性”以及“人工智能立法的理念欲求”三道滤网的层层筛选,才能达到“淘尽泥沙始见金”的效果。

(一)人工智能的法律内涵——识别体系化对象的第一道滤网

人工智能并不直接指涉“科学或者学科”。其一,人工智能首先是一种信息处理“系统”,“程序、模型和机器”则是该系统的软硬件组成部分。对智能系统的科学研究或技术研发,称为人工智能科学,其范畴包括人工智能知识、原理、方法和技术等。科学成果转化、投产后,形成人工智能产业。而人工智能作为一种“权益”,受制于特定的政策背景和法学理论话语,具有较强的评价性色彩和逻辑上的后置性,不能成为界定人工智能法律概念的术语。其二,就概念内涵而言,应当结合功能型定义模式和发生型定义模式,以期同时实现对“理性智能体”的“目标控制”和“行为控制”。具言之,人工智能是依托算力基础设施,通过控制系统的算法处理输入的数据,以软件或硬件等多元集成方式嵌入系统后输出,或者直接在具体场景中输出对人类某种理性功能的模拟状态,在环境中进行交互,并在目标约束下经过反馈修正,最终完成预设任务的信息系统。该种信息系统的法律本质为“理性智能体”,是界定其法律地位的主要依据。该定义的法学构造主要包括:数据、算法、软件/硬件、目标/任务、反馈、输出等相互影响、互为制约的基本要素,以及这些要素在“系统—控制论”原理下的各种内生性或外显性行为(譬如,“黑箱”“集成”“功能模拟”“变换”等)。其三,就概念外延而言,既包括外观上模仿生物人但本质上是集成软硬件的“智能机器人”,也包括单纯的智能系统(如ChatGPT)或硬件设备(如智能传感器),以及嵌入这些软硬件的其他“智能体”(如自动驾驶汽车)。

由是观之,人工智能并不是一种单一的技术,而是以数据、网络、算法等为其核心要素、带有“输入—输出”控制结构的有机系统。在这一系统中,数据、网络和算法三个核心要素相互影响、相互作用,共同决定着发展什么样的人工智能。人工智能的这一法律内涵,成为人工智能立法体系化对象的第一道滤网。为数众多的广义的涉人工智能法律规范,经由这道滤网的过滤,至少数据法规范、网络法规范、算法规制规范应成为人工智能立法体系化的初步对象。

(二)人工智能规范的本质属性——识别体系化对象的第二道滤网

人工智能法律规制的根本目的在于救济、减少或预防人工智能造成的损害,而这里的损害类型则决定着人工智能法律规范的本质属性。人工智能造成的损害,可以从不同角度观之:(1)从致害主体来看,可以是人工智能系统的任一要素。换言之,损害既可能源于数据,也可能源于网络;既可能源于算法,也可能源于人工智能产品/成品。(2)从致害对象来看,既可能是个体损害,也可能是群体损害,既可能是个别性损害,也可能是群体性损害。(3)从致害时间来看,既可能是已经发生的现实损害,也可能是尚未发生的潜在损害。(4)从致害复杂性程度来看,既可能是简单损害,也可能是复杂损害。

在救济的损害类型上,人工智能法与其他部门法有着不同的分工。人工智能法并不救济人工智能及其各要素引致的全部损害,而仅仅是救济人工智能系统引发的潜在系统性损害。这些损害的救济,往往面临集体行动的困境,无法通过市场方式加以解决,而不得不诉诸以救济系统性或社会性损害为目的的规制法律。人工智能造成的损害,与环境法所欲救济的损害类型极为相似,由此决定了人工智能法律规范与环境法律规范一样,具有“事前性、系统性和规制性”等本质属性。

人工智能法律规范的本质属性,是人工智能立法体系化对象的第二道滤网。经由这道滤网的过滤,仅有那些以救济潜在系统性损害为己任的、具有“事前性、系统性和规制性”特征的人工智能法规范,才是人工智能立法体系化的对象。由此排除了以救济现实个体损害为目的的涉人工智能法律规范。比如,数据法中以救济个人隐私或实现数据自决为目的的私法规范不属于人工智能立法体系化的具体对象。

(三)人工智能立法的理念追求——识别体系化对象的第三道滤网

人工智能立法的理念追求,是识别人工智能立法体系化对象的最后一道滤网。确定人工智能法的理念追求,具有非常重要的意义。

从目前国内外发布的涉人工智能政策、法规,以及理论研究和法治实践看,“发展负责任的人工智能”在国际社会已达成广泛共识。该理念是关于人工智能应当如何研发、部署、使用、评估以及治理的提议或规范性声明。它由一系列确保人工智能透明、负责和合乎道德的基本原则构成,涵盖了人工智能全生命周期需要满足的全部条件,可以最大限度预防或减少人工智能应用中的不利后果,以促进人工智能技术的使用与民众的期望值、组织的价值观以及社会的法律规范相一致,因而备受世界各国青睐。进言之,“负责任的人工智能社会治理是一种前瞻性社会治理、预期治理,以及针对人工智能开发与应用风险的全过程治理;构建负责任的人工智能社会治理体系,关键在于树立责任共同体意识,实现从个体责任意识到共同责任意识的转变。”因此,“发展负责任的人工智能”理念应当在价值体系的顶端发挥锚定体系化对象、平衡价值冲突的导向功能。该种理念作为人工智能立法的根本价值追求,不仅内嵌了“协调人工智能发展与治理关系”的价值判断准则,而且《人工智能治理原则》所提出的八项具体原则从“增进人类共同福祉、推动人工智能创新等发展面向”与“保障人权、公平公正等负责任面向”出发,在阐释原则内容时进一步揭示了二者之间的辩证关系。即“发展负责任的人工智能”应当做到“以确保人类安全为发展前提,在发展全链条上系统性预防风险,发生致害后公平分配责任”。

总而言之,广义的涉人工智能法律规范,经由第一道滤网的过滤,仅有数据法规范、网络法规范和算法规制规范被留在人工智能立法体系化对象之中;经由第二道滤网的过滤,数据法规范、网络法规范和算法规制规范中那些具备“事前性、系统性和规制性”特征的人工智能法律规范,被再次筛选出来划入人工智能立法体系化对象之中;经由第三道滤网的过滤,唯有以“发展负责任的人工智能”为其理念追求、同时具备“事前性、系统性和规制性”特征的数据法规范、网络法规范和算法规制规范才成为人工智能立法体系化的最终对象。唯有经此三道滤网拣选而出的人工智能法律规范,才可以形成概念科学、范围明确、理论自足、逻辑自洽、体系完备的人工智能法律规范整体。

四、人工智能立法体系化的实现路径

立法体系化是法律人规整法律素材、建构法律制度、确保法秩序统一、系统性解决社会问题时必不可少的元方法。体系化立法的理想状态可以提炼为“立法要素的内在逻辑保持一致”“立法脉络能够维系整体性意义关联”以及“立法价值在规范中融贯表达”。这三个标准也是判断法律体系是否科学、合理的重要依据。人工智能立法体系的构筑,应当在拣选人工智能立法体系化对象的基础上,以体系化的一般方法为指引,重点解决“如何设定能够融贯全部规范的立法价值”“选择何种线索系统地串联起体系内部的各大板块”以及“怎样在具体规则中凸显人工智能的规范特质”等“内部体系”问题,在此基础上考虑立法模式等“外部体系”问题。

首先,应当继续坚持以“发展负责任的人工智能”作为融贯全部人工智能立法的价值基础,进而将其具化为“平衡公平和效率”以及“平衡安全和创新”两大基本原则,发挥“向上承接、阐释抽象理念的价值意涵并向下传递至具体原则”的体系功能。考虑到具体原则在适用时存在部署场域和所处生命周期阶段的差异,还需要在立法时回归基本原则来限制其适用方式。

其次,人工智能立法体系只有与人工智能所承载的特定社会结构相适应,才能以法治话语诠释某种法理念之下生活关系的意义。在以“输入—输出”控制结构为核心的人工智能系统中,网络、数据、算法等要素相互影响、互为制约,共同决定输出模型的质量。因此,能够彰显人工智能“事物本质”的“系统—控制论”机理应当成为联结人工智能各要素的纽带,进而“网络法”“数据法”和“算法规制”一体同构为人工智能立法体系中彼此关涉、相辅相成的三大主体板块。

再次,在设计人工智能立法的具体制度或规则时,目光应当在规范内容和立法目的之间来回穿梭,通过衡量行为方式、法律后果、权利/义务构造、风险分配,以及利益保护程度等,进一步检视规范是否具备“事前性、系统性和规制性”等人工智能法律规范的“风险法”特质,进而挖掘出其中蕴含的价值判断及其作用范围,如此才能真正“理解”法规范的意义。经过该道工序对初筛出的“数据法”“网络法”和“算法规制”相关规范进行二次过滤后,可以拣选出真正意义上的人工智能法律规范,据此形成概念科学、范围明确、理论自足、逻辑自洽、体系完备的人工智能法律规范整体。

最后,就人工智能立法整体的外部关系而言,当前立法模式难以适应智能社会转型需要,延续部门法“划域而治”的底层逻辑致使人工智能法规范无法在既有部门法谱系中找到栖身之所。应当在“法律”层级适时制定一部兼具框架性和包容性的“人工智能法”。该法应具有“总体性、保障性、边界性和统一性”等特征,于“金字塔顶端”发挥基本法的统帅功能。