【作者】张涛
【内容提要】
通过技术标准规制人工智能:基于合作规制的法理
张涛 中国政法大学数据法治研究院副教授
摘要:如何对人工智能进行有效治理是当前学界重点关注但又尚未形成广泛共识的问题。从国家治理的角度看,技术标准的规制效能逐渐获得理论与实践的肯认,成为一种重要的人工智能规制工具。在理论上,将技术标准嵌入人工智能治理体系中,契合嵌入式伦理、治理生态、知识共创、分层治理等治理逻辑。然而,在实践中,人工智能标准化治理也面临正当性、科学性、协调性和有效性方面的困境,难以最大限度地发挥治理效能,需要选择一个合适的规制模式进行重新构造。相比纯粹的行政规制和自我规制模式,合作规制模式不仅契合人工智能标准本身的内在规律,而且可以有效解决人工智能标准面临的现实困境。基于此,可以通过对人工智能标准的功能地位、内容设计、制定程序和实施监督进行制度设计,实现基于合作规制的人工智能标准化治理。
关键词:技术标准;人工智能;合作规制;自我规制;规制工具
一、问题的提出
近年来,人工智能技术的迅猛发展和广泛应用已经深刻影响了社会各个层面。无论是在自动驾驶、智能医疗、金融科技,还是在智能制造、公共服务等领域,人工智能都在以空前的速度改变着人类的生产和生活方式。然而,人工智能技术的广泛应用也带来了复杂的社会风险,既有隐私保护、算法透明性、算法歧视等技术伦理问题,也有自动化决策引发的人格保护、版权归属、侵权责任等法律问题。传统的法律框架和治理模式在应对这些新兴问题时面临所谓的“步调问题”(pacingproblem),原因在于许多现有的法律框架是基于对社会和技术静态而非动态的认知,法律机构(包括立法、执法和司法机关)在适应技术变革方面的能力也正在下降,因此亟需探索适应人工智能发展的新型规制模式。正如本杰明·卡多佐所言:“一旦出现了一些新条件,就必须有一些新的规则。”
标准化是一种调控社会生活的方式,旨在跨越时空实现持久而统一的秩序。作为多义词,“标准”既指具有示范意义的度量尺度,也指达成该理想所需遵循的规则与规范。随着风险社会的来临,监管机构在寻求整合专业知识以应对风险时,也逐渐将目光转向技术标准,以促进法律要求和伦理价值的实现。在人工智能治理中,技术标准也逐渐成为一种强大的规制工具。技术标准可以通过规范人工智能系统的设计、数据处理、应用流程等环节,促进技术的安全性、可控性和透明度,减少技术应用中的不确定性与风险,确保人工智能技术的发展符合法律、伦理和社会要求。在我国,国家标准化管理委员会等五部门早在2020年7月便颁布了《国家新一代人工智能标准体系建设指南》,对人工智能领域的标准化作出顶层设计,并提出“形成标准引领人工智能产业全面规范化发展的新格局”。在比较法中,欧盟《人工智能法》前言第61条规定,标准化应当发挥关键作用,为提供者提供技术解决方案,确保其符合法律要求,并与最新技术保持一致,以促进创新以及单一市场的竞争力和增长。在国际层面,国际标准化组织(ISO)、国际电工委员会(IEC)等机构已经开始在人工智能领域开展标准化工作,制定了一系列涉及人工智能的概念术语、数据质量、风险管理、可信度、可解释性、伦理影响等方面的标准。
然而,技术标准在人工智能治理中的应用也面临一系列挑战。首先,人工智能技术的复杂性和快速发展使标准的制定滞后于技术本身,许多技术标准可能无法应对新的技术发展和应用需求,其有效性和适应性面临挑战。其次,人工智能技术的跨领域特性和全球化发展要求标准的制定必须协调不同国家和行业的利益及需求,但当前的标准制定多由行业内的技术专家主导,缺乏广泛的社会参与,导致标准的合法性和科学性受到质疑。此外,人工智能技术本身还涉及诸多伦理和社会问题,如何在技术标准中嵌入这些伦理和社会价值,使其在应用中真正发挥作用,仍然是一个亟待解决的问题。
尽管标准化治理已经在我国国家治理体系中广泛存在,但在当前的法学研究中,技术标准仍是一个相对边缘的话题,仅有少数研究成果从民法、行政法、反垄断法、版权法等角度进行了零散探讨,缺乏对标准制定和实施过程中的“治理机制”的探讨,关于人工智能标准化治理的系统性研究就更少了。有鉴于此,本文主要围绕以下问题展开讨论:技术标准在人工智能治理中的应用现状如何?其背后蕴含了何种理论逻辑?其实践又面临何种困境?又应当采用何种模式及路径来塑造人工智能标准化治理?通过对这些问题的深入探讨,本文旨在为我国人工智能标准化治理提供理论支持和政策建议,推动技术标准对人工智能技术发展和应用的有效规制,促进人工智能技术的健康有序发展。
二、技术标准作为一种人工智能治理工具
技术标准已经成为现代国家规制工具箱中越来越重要的工具,尤其是在风险治理中,标准不仅可以给不确定的世界带来某种确定感,还有助于在不同的利益相关者和观点之间架起沟通的桥梁。随着人工智能技术的快速发展和广泛应用,技术标准逐渐成为其治理体系中的重要工具。一方面,相比其他技术,人工智能技术领域对标准有着明显的依赖性;另一方面,人工智能标准作为数智社会的核心,具有重要的社会意义。人工智能标准不仅是技术产品与服务之间互操作性的保障,更是确保人工智能技术应用符合伦理、法律和社会要求的关键机制。当前,技术标准在人工智能治理中的嵌入已经取得一定的进展,其背后蕴含着多重理论逻辑,但仍面临诸多挑战和亟待解决的问题。
(一)技术标准嵌入人工智能治理的现状考察
在全球范围内,将技术标准作为人工智能治理的关键工具已成为一种共识,但不同国家和地区基于其法律传统与政策导向,形成了各具特色的实践路径。
1.我国人工智能标准的体系化构建
我国高度重视人工智能领域的标准化工作,已初步构建起一个由顶层战略规划、多层次标准体系和专门组织机构构成的系统性框架。自2017年国务院发布《新一代人工智能发展规划》以来,国家层面通过发布《人工智能标准化白皮书(2018版)》、《国家新一代人工智能标准体系建设指南》(2020年印发)及《国家人工智能产业综合标准化体系建设指南(2024版)》等一系列文件,为标准化工作提供了持续演进的顶层设计,并确立了从基础共性、关键技术到行业应用与安全治理的综合性标准框架。为保障人工智能标准化治理的实施,我国相继成立了国家人工智能标准化总体组、专家咨询组及工业和信息化部人工智能标准化技术委员会,形成了统筹协调的管理机制。在实践层面,一个涵盖国家标准、地方标准、团体标准和企业标准的多层次标准体系正在形成,内容广泛涉及数据、算法、平台、安全与伦理等多个维度,从不同维度推动人工智能产业的规范化发展。
2.人工智能标准域外实践的模式分化
在国际上,主要经济体和国际组织的人工智能标准化实践呈现出明显的模式分化,主要体现为欧盟的“立法驱动”、美国的“市场主导”和国际组织的“共识构建”三种路径。欧盟的路径以立法为核心,呈现出权利导向与强力整合的特征,其政策文件与《可信人工智能伦理指南》为标准化工作奠定了伦理基础。特别是欧盟《人工智能法》创造性地引入“协调标准”(harmonizedstandards)机制,将符合协调标准作为证明其人工智能系统满足法律强制性要求的重要依据,从而使技术标准与法律框架紧密耦合。欧洲标准化委员会(CEN)和欧洲电工标准化委员会(CENELEC)等机构正积极制定相应标准,以支撑欧盟《人工智能法》的实施。美国的路径则更侧重于市场主导与行业自律,强调创新的灵活性与全球竞争力。美国国家标准与技术研究院(NIST)发布的《人工智能风险管理框架》等文件,主要作为指导性工具,帮助企业自愿管理风险。美国国家标准与技术研究院(NIST)于2024年7月发布的《人工智能标准全球参与计划》明确指出,标准化应是私人部门主导和市场驱动的行为,政府的角色是作为众多利益相关者之一,通过基础研究、协调和教育等方式提供支持,而非强制干预。国际标准化组织(如ISO/IEC)则致力于构建全球性的技术共识,其成立的JTC 1/SC 42人工智能分技术委员会,已在人工智能的概念术语、风险管理、治理影响、可信度等基础性和通用性领域发布了数十项国际标准。这些标准旨在促进全球技术与产品的互操作性,为各国制定国内标准提供重要参考,构成了全球人工智能治理的基础设施。
(二)人工智能标准化治理的多元理论逻辑
“标准化是社会实践、政治偏好、经济计算、科学必要性和专业判断的缩影。”技术标准的基本功能在于规范技术行为,促进不同供应商的产品或服务之间的安全性、可靠性和互操作性,同时也受到更广泛政策的影响。在人工智能治理中,技术标准不仅仅是规范算法、数据使用、系统设计等具体技术环节的工具,它还承担着平衡技术创新与社会责任、公共利益之间关系的重要使命。从治理的角度看,技术标准嵌入人工智能治理的理论逻辑可以从以下四个维度进行分析。
1.技术标准的伦理嵌入逻辑:技术与社会伦理的有机融合
人工智能技术的迅猛发展带来了前所未有的伦理挑战,如数据隐私、算法歧视、自动化决策中的不公平性等问题。传统技术伦理评估的一个主要局限是其回溯性,即伦理问题只有在被识别之后才能得到有效解决,而识别这些问题往往依赖于对它们造成的危害作出反应,从而导致在提供伦理指导方面长期拖延。传统的很多技术标准往往注重对技术操作的规范,但在人工智能治理领域,技术标准的作用已不仅限于调控技术行为,还需要将社会伦理和法律价值内嵌其中。嵌入式伦理(embedded ethics)主张,通过技术标准的制定,将社会伦理原则如公平性、透明度、人的尊严、自主性等纳入技术设计和实施过程中,从而确保技术发展与社会需求之间的协调与平衡。这也与法学界提出的“通过设计进行规制”的理念一脉相承。
从人工智能标准化治理实践来看,技术标准并非仅仅是一种技术操作的指南或基准,而是融入了对社会伦理责任的考量。正如学者所言,“标准既是观念性的,也是物质性的”,这体现了伦理嵌入逻辑。例如,在人工智能应用中,技术标准可以要求开发者在设计算法时考虑公平性原则、非歧视性要求,并为技术的透明性和可解释性提供具体标准。这种“伦理嵌入”的逻辑,不仅可以提高技术标准的社会接受度,还能预测、识别和解决人工智能技术创新中的伦理问题,从而造福于个人和社会。
2.技术标准的治理生态逻辑:利益相关者的网络效应
在治理生态理论看来,价值创造不再以线性为特征,而是出现在相互关联的行为者和组织组成的网络中,他们利用各自的能力和专长共同实现价值创造,因此生态系统中各方的联合能够实现单个参与者无法实现的价值创造。人工智能治理是一个复杂的社会过程,涉及政府、企业、行业协会、学术界、社会团体等多元主体,它们共同构成了一个利益相关者网络并且相互合作、竞争,从而形成了一个类似于生物生态系统的网络。因此,人工智能治理的成功依赖于这些多元主体之间的协作与共同治理。
人工智能领域的标准化实践,深刻确证并具体阐释了“治理生态”(governance ecology)的理论内核。在此生态体系中,技术标准的创制并非单向度的权力施加,而是多元利益相关方协同博弈与协商共建的产物,并通过分布式的“共享治理”(sharedgovernance)架构确保标准在产业生态中的内化与遵从。这意味着,技术标准的制定与实施不仅是技术开发者和监管者的任务,还是一个多方参与、协同合作的过程,可以产生一种“网络效应”(networkeffects),而网络价值的增加将直接惠及所有网络参与者。例如,政府和监管机构可以制定政策和法规,确保标准的合规性和公共利益;学术界可以提供技术研究和理论支持,确保标准的科学性和前瞻性;产业界则可以根据实际应用中的需求和挑战,推动标准的实用性。
3.技术标准的知识共创逻辑:跨学科协同与知识融合
传统的知识交换模型通常是线性的,即从科学到产业的单向流动,学术界通常被视为知识的生产者,而产业界则是知识的接收者和应用者。这可能导致知识的滞后,难以迅速适应市场需求和技术变革。知识共创(knowledge co-creation)超越了传统的线性模型,通过跨学科协作,可以实现知识的多向流动、共享和融合,再加上实时反馈机制,进而可以促进学术研究和产业应用的相互影响和改进。
在人工智能领域,技术标准的制定和实施本质上体现了知识共创的逻辑:一是标准制定过程的多学科融合。人工智能本身是一种社会技术(social technology),具有高度的跨学科性质,涵盖了计算机科学、统计学、控制理论、数据科学等技术领域,同时又与法学、伦理学、社会学、哲学等软学科息息相关。技术标准的制定不仅限于运用计算机科学知识制定技术基准,更是一个跨学科知识共享与合作的过程,体现了人工智能作为一种社会技术现象,其治理不仅仅依赖技术力量的推动,更需要各领域的知识融合。二是标准实施中的协同创新。技术标准不仅是规范,更是创新的驱动器。标准的制定者和使用者之间存在技术知识的流通,可以有效地节约创新过程中的信息流和费用。“通过为渐进式产品的改进建立技术基准,后来者无需重复创造初始产品的成本,而是可以依靠现有产品及相关产品中的某种功能”。人工智能标准的实施仍然需要融合各学科知识设计相应的配套工具(如监测、评估、认证、审计等),进而推动人工智能技术的普及和应用,并形成新的创新生态。
4.技术标准的分层治理逻辑:通过模块化推进适应性治理
不同的人工智能技术(如自然语言处理、图像识别等)在其应用场景、数据处理、算法决策等方面存在显著差异,因此无法依靠单一、统一的技术标准进行全面治理。对此,在构建人工智能的治理框架过程中,“分层治理”便逐渐受到关注。模块化(modularity)是管理复杂系统的主要机制之一,旨在通过确定哪些任务高度相互依赖,哪些任务不相互依赖,从而减少必须分析的相互依赖关系的数量。分层是模块化的一种特殊形式,在这种形式中,整个系统的不同部分被安排在平行的层次结构中。
在理论上,技术标准可有多种属性的分类,包括层级属性、专业属性(或领域属性)、用途属性、组分属性等。根据人工智能的不同特征、功能、用途、影响等因素,可以将人工智能技术标准分为不同层级,对应不同的治理要求和措施,以实现差异化、分级化、动态化和灵活化的治理方式。例如,前文提及的《国家人工智能产业综合标准化体系建设指南(2024版)》便针对不同类型的技术标准确定了不同的重点方向,其中,就基础共性标准而言,重点方向是人工智能的学术概念、参考架构、测试评估、管理、可持续性等标准;就智能产品服务标准而言,重点方向是智能机器人、智能运载工具、智能移动终端等标准。
(三)人工智能治理中技术标准的现实困境
“忽视广泛利益并以技术官僚主义为驱动力的标准化活动,可能会引发一些根本性的问题,诸如标准的合法性与有效性问题。”尽管从理论上看,人工智能标准化治理蕴含了诸多理论逻辑并进行了一定程度的制度实践,但技术标准在人工智能治理中的实际应用仍然面临许多挑战。这些挑战不仅涉及人工智能标准的正当性、科学性、协调性和有效性等方面,还关涉技术与社会、伦理与法律、标准与法律之间的复杂互动。
1.正当性困境:标准的实体合法与程序正当问题
长期以来,标准化的正当性(legitimacy)是学术文献中一直关注的问题。政治学理论通常从输入(input)、过程(throughput)和输出(output)三个维度来审视正当性,这与法学语境下的程序正当性(输入与过程)和实体正当性(输出)高度契合。尽管技术标准不同于法律,但是标准制定与立法非常相似。例如,在“代码即法律”的理念中,不同层级网络架构的互联网规范的设计者有时被比作“立法者”,因为他们以类似于立法者的方式影响行为主体的行为。从这个意义上看,技术标准作为一种技术规范,可以对用户和第三方使用技术所带来的利益和风险产生影响,也应当满足实体和程序方面的正当性。标准化的正当性与标准的实际内容以及所有利益相关者能够为决策过程做出贡献的方式和程度有关。
技术标准在人工智能治理中的应用引发了一场深刻的正当性危机,其根源在于标准所拥有的准立法效力(quasi-legislative effect)与其制定过程的民主赤字之间的结构性矛盾。标准,尤其是那些因网络效应或被法律引用而获得事实强制力的标准,深刻地塑造着市场行为与社会关系,却无需经过传统立法所要求的严谨程序与合法性检验。这场危机同时在程序与实体两个维度上展开,且二者紧密缠绕。程序正当性的缺失是问题的表征。长期以来,标准化过程被批评为一种封闭的、技术官僚主导的“俱乐部政治”。尽管名义上开放,但实际上,行业巨头凭借其资源与信息优势,在标准制定议程中占据了主导地位。中小企业、公民社会组织乃至普通公众的有效参与渠道极为有限,这不仅导致了代表性的严重失衡,也使得协商过程往往沦为技术利益的博弈,而非公共理性的审议。此外,决策过程的不透明、“付费访问”的知识壁垒以及申诉机制的形式化,进一步加剧了这一程序困境,使其与现代法治所要求的公开、参与、问责等原则格格不入。
程序上的封闭性不可避免地传导至实体内容,导致了标准的合法律性与公共性难题。首先,标准的制定缺乏系统性的合法律性审查机制。在一个脱离了充分公共辩论与法律监督的环境中,技术理性极易压倒价值理性,导致标准内容可能与隐私保护、公平正义、可持续发展等根本性法律原则和公共政策目标发生偏离,甚至形成规避法律义务的“技术捷径”。其次,人工智能标准的价值取向可能被少数利益集团俘获。当标准成为固化特定技术路径、构筑市场壁垒的工具时,它便从一项促进互操作性的公共产品,异化为限制竞争、损害消费者权益的私器。这种实体上的偏颇正是正当程序缺失的直接后果,最终将可能动摇技术标准作为治理工具的社会信任根基。
2.科学性困境:标准制定过程的知识不对称与技术复杂性
标准不是人们凭主观意志去制定的,标准中的内容通常要以科研成果和实践经验为基础,换言之,标准必须具有科学性和实践性。人工智能标准化所面临的科学性困境,超越了一般的技术复杂性,触及了标准化活动赖以维系的科学理性根基。这一困境主要表现为“语义转化僵局”与“规制时机悖论”两个相互交织的局面。
首先,标准制定深陷于跨学科的“语义转化僵局”。人工智能作为一种典型的社会技术系统,其标准制定必然是一个多学科知识交汇的过程。然而,不同学科间存在着深刻的认知壁垒与“语义摩擦”。诸如“公平”、“透明”、“可解释性”等核心治理概念,在计算机科学、法学、伦理学等话语体系中具有截然不同的内涵与指涉。这种语义上的不兼容,使得达成一个各方均认可且定义精确的标准术语变得异常困难。更深层次的挑战在于,如何将这些承载着厚重社会价值的规范性原则,有效地“转化”为可被计算机工程师理解、测量和验证的技术指标与工程要求。目前,这一从“应然”的价值判断到“实然”的技术实现的路径尚缺乏成熟且公认的科学方法论,使得许多伦理标准停留在高阶原则层面,难以落地。
其次,标准制定亦受困于“规制时机悖论”。这集中体现为经典的“科林格里奇困境”(Collingridgedilemma):在技术发展的初期,我们虽有能力改变其轨迹,却因缺乏对其长远影响的认知而不知如何行动;而当技术成熟、影响显现之时,我们虽已看清问题,却因技术已被深度嵌入社会系统而丧失了有效干预的能力。人工智能技术的指数级发展速度与演化不确定性使得这一困境尤为尖锐,标准化工作始终在“为时过早”与“为时已晚”之间摇摆。与此同时,人工智能不同技术分支的科学成熟度极不均衡。正如相关研究指出的,尽管在概念术语等领域已具备坚实的标准化科学基础,但在鲁棒性验证(robustness verification)、可解释性方法等关键治理议题上,科学研究仍处于探索阶段,远未形成稳定的共识。在这种科学基础参差不齐的背景下,强行推进全面的标准化,不仅可能扼杀创新,更有可能将尚不成熟甚至存在谬误的科学假设固化为技术常规,带来深远风险。
3.协调性困境:多元主体之间的利益冲突与博弈
技术标准远非中立的技术文本,而是获得“形式客观性”的最佳手段,而“形式客观性”是有视角的、有立场的和非中立的,它与权力等要素结合在一起,它的形成过程是一个由中心向边缘扩张的过程,必然伴随着资源和利益的分配。从经济功能的角度看,标准化能够提高市场的一致性,促进技术的普及和应用,但过度的标准化,尤其是在某些特定公司或利益集团主导下,可能会限制创新,减少市场竞争,并阻碍新兴技术的快速发展。因此,标准化的过程本质上是一场复杂的利益博弈。人工智能标准的制定与实施涉及众多利益主体,包括政府、企业、技术开发者、学术界、社会组织以及普通公众等。这些主体的利益诉求、价值观念、技术需求和社会责任各不相同,如何协调各方的利益,推动标准的统一和协调,是当前人工智能标准化治理面临的一大难题。
在国际层面,人工智能技术的标准化面临显著的国家利益和经济利益博弈。近年来,随着“人工智能竞赛”带来的“人工智能监管竞赛”,美国和欧洲在数据保护、隐私权和算法透明度等方面的标准存在较大差异,导致全球范围内对人工智能标准缺乏统一性和协调性。美国在人工智能标准方面偏重市场主导,注重技术创新与经济效率的最大化,欧盟则更加注重社会责任与伦理规范,强调对个人隐私和社会公正的保护。这种跨国利益的冲突使国际标准制定成为地缘政治与经济角力的舞台,进而影响全球治理的协同性。
在国内层面,人工智能标准的制定也面临着行业和利益群体之间的博弈。例如,企业在制定标准时,往往希望将标准与自身的技术优势和商业利益相结合,这可能导致标准过于倾向于技术发展的某一方面,而忽视了社会公众利益和法律合规性。政府和行业协会往往处于两难境地,一方面需要鼓励技术创新,另一方面又要确保技术标准能在保障社会公共利益和遵守法律框架的前提下制定。这种多方利益博弈加剧了人工智能标准在制定和执行中的协调性困境。
4.有效性困境:标准实施的执行力与监督机制不足
“一个标准发布之后,仅仅停留在纸面上而不去实施,它是不会自动地转化为生产力,不会产生任何作用的,更无效果可言。”这意味着技术标准的有效性不仅依赖于标准的正当性和科学性,还取决于其实施过程中的执行力和监督机制。然而,从我国其他领域的标准化治理实践来看,存在“重标准制定,轻标准执行”的问题。在人工智能等前沿技术领域,标准的有效实施不仅依赖技术成熟度和行业自觉,更需要一个覆盖全生命周期的、跨部门协同的监督与合规体系,而这恰恰是当前治理实践中的薄弱环节。
尽管包括我国在内的许多国家(地区)已经在人工智能领域制定了相应的技术标准,但在实践中,如何有效执行这些标准仍然是一个突出问题。其困境根源于三个相互关联的结构性缺陷:首先,目前绝大多数人工智能标准都是自愿性的,其实施依赖于市场主体的自觉遵守,而没有强有力的法律保障手段。这使得很多企业和组织在面对合规压力时,往往采取边缘操作或选择性遵守,从而导致标准落实不到位。其次,目前我国的人工智能监管体系尚在逐步构建之中,相关法律法规和监管机制仍然处于发展阶段,缺乏针对人工智能标准合规性检验的常态化行政监管机制。最后,虽然我国已逐步推进第三方认证和评估机制,但该机制的健全性仍然存在明显不足,许多第三方认证机构尚未获得足够的公信力,且其评估范围和深度无法适应人工智能技术的复杂性。
三、人工智能标准化治理的模式选择:迈向合作规制
在快速发展的人工智能领域,标准化治理的模式选择至关重要。事实上,没有哪种规制模式是完美的,尤其是不存在适用于所有情形的规制模式,对规制模式选择的适当检验也并不在于判定其是否完美,而在于确定是否存在最优的进路。虽然行政规制模式有助于缓解人工智能标准化治理面临的合法性及权威性质疑,自我规制模式可以充分发挥行业在标准制定中的专业特长,但是随着人工智能应用的不断深入,单纯依赖行政规制或自我规制均难以应对日益复杂和多变的规制环境。未来的人工智能标准化治理应当超越行政规制和自我规制模式,通过建构制度化框架推动政府、行业组织、企业、学术界等多方的深度合作,迈向更加完善、科学和有效的合作规制模式。
(一)基于行政规制的人工智能标准化治理之不足
将人工智能标准纳入传统行政规制框架,即将标准视为一种由国家主导制定和实施的公共规范,无疑具有理论上的吸引力。此种路径似乎能最直接地回应标准正当性与权威性的诉求,通过国家强制力保障其执行,欧盟《人工智能法》中“协调标准”与法律责任挂钩的设计便体现了这一思路的强大引力。然而,当我们审视人工智能这一规制对象的独特性质时,行政规制模式的内在局限性便暴露无遗。其核心困境在于,传统行政科层制赖以有效运作的稳定性、程序主义与知识结构,与人工智能技术的动态演化、高度复杂性及知识的分布式特征形成了结构性的冲突。一方面,行政规制是一种典型的“后见之明”式治理,其严谨、刚性的立法与决策程序,在赋予其稳定性的同时也注定了其无法匹配人工智能技术指数级的迭代速度与“逃逸式”的创新轨迹。这种“步调问题”在人工智能领域被急剧放大,任何试图通过行政命令固化的技术标准都可能在颁布之时即已过时,从而导致规制的持续性失灵。
另一方面,人工智能的高度复杂性与跨学科属性,对规制机构的认知能力构成了前所未有的挑战。行政机关即便能够集中最优秀的专家资源,也难以克服在这一新兴领域面临的“认识论赤字”。在人工智能治理领域,若完全依赖政府作为单一主体进行技术标准的制定与供给,常会面临两种典型的规制失灵风险:其一,为追求标准的广泛适用性,可能使其异化为高度抽象的原则宣示,从而丧失对产业实践的有效指引功能;其二,当规制意图深入技术细节时,政府常因其与技术前沿之间固有的“信息与知识鸿沟”,导致标准内容出现疏漏,甚至对技术演进路线构成扭曲性干预(distortive intervention)。因此,纯粹的行政规制路径可能非但无法有效治理人工智能,反而可能因其内在的结构性缺陷扼杀技术创新活力,最终损害社会福祉。这并非简单的政府能力不足问题,而是传统规制范式在应对颠覆性技术时所暴露出的系统性功能不适应。
(二)基于自我规制的人工智能标准化治理之反思
鉴于行政规制的内在局限,转向依赖行业专长与市场效率的自我规制,似乎是人工智能标准化治理的一条捷径。此模式凭借其低廉的信息成本、高度的灵活性与对技术创新的敏锐响应,对规制者和业界都具有强大的吸引力。自我规制许诺了一种能够跟上技术步伐的“敏捷治理”,美国在人工智能标准化上所倡导的市场驱动、行业主导路径,便是这一理念的集中体现。然而,自我规制的效率神话可能是以悬置公共问责为代价的,其核心机制在于将规范创设权让渡给私人主体,这在本质上是一种“规范的私有化”。当规制对象仅限于行业内部事务时,此种模式尚可容忍;但当其涉及人工智能这一深刻影响个人基本权利、社会公平与公共安全的领域时,其固有的合法性赤字便暴露无遗。自我规制最根本的困境在于,它创造了一个权力与责任不相匹配的“问责真空”:私人行业协会或技术联盟获得了制定影响社会公众的准公共规则的权力,却无需对任何公共机构负责,也未经过民主程序的授权与监督。
在此结构下,标准的内容极易被强势的商业利益所“俘获”。逐利动机天然地驱使企业联盟将标准制定导向有利于巩固自身技术优势、构筑市场壁垒或降低合规成本的方向,而公共利益,如保护弱势群体、促进算法透明、保障数据隐私等,则可能被选择性地忽视甚至牺牲。此外,负责任的自我规制需要一个成熟、稳定且具有高度伦理共识的行业社群作为基础。而当前的人工智能产业,其参与者构成复杂、流动性强、规模差异巨大,远未形成一个具有内生约束力的稳定职业共同体。因此,寄望于这样一个尚在演化中的行业进行有效的自我约束,无异于将公共福祉置于巨大的不确定性风险之中。单纯的自我规制可能并不能解决问题,反而可能以“技术中立”为名行“利益固化”之实,最终加剧而非缓解人工智能带来的社会挑战。
(三)人工智能标准化治理宜采用合作规制模式
面对行政规制和自我规制的局限,理论界与实务界探索了诸多替代性解决方案,如元规制或强制性自我规制、回应性规制、精巧规制、合作规制等,其中,合作规制(co-regulation)在视听媒体监管、数据隐私、域名治理、内容过滤、互联网安全、网络中立等互联网信息领域被广泛使用。一般认为,合作规制模式可以被定义为不仅通过自上而下的监管来规制社会现象,而且还让私人利益相关者参与规则制定过程。换言之,在合作规制模式下,“政策走向”(policy travel)可以是双向的:既可以是自下而上的从自我规制向合作规制的转变,也可以是自上而下的从行政规制转向合作规制。
与行政规制和自我规制类似,合作规制亦有多种表现形式,它们具有如下共同特征:一是以解决问题为导向,倾向于合作而非对抗,充分利用企业社会责任作为企业行为的激励因素;二是依靠企业或行业协会来履行各种政府职能,政府部门是多方利害关系人协商的召集者和助成者;三是合作规制准则不像国家法律法规那样具有强制性(国家法律法规通常倾向于规定必须采取的行动),更加开放(陈述大致意图或预期结果),从而允许被规制者在制定具体实施计划时拥有更大的自由裁量权;四是利害关系人与受影响者参与规制决定过程的所有阶段,可以有效地解决问题,因为被规制者通常更愿意遵守自己参与制定的规则,从而提高合规率;五是合作规制改变了传统的政府角色定位,使其从制定规则并在行业违反规则时实施制裁,转变为在实施规制计划的同时提供激励措施,并保留最终的监督和强制执行权,一种由多元主体参与、网络化联结、制度化安排所构成的新型治理结构正逐步取代或补强、传统以政府为中心的层级监督体系。
正是基于上述特征之考量,不断有观点主张应当用合作规制来治理人工智能引发的诸如算法黑箱、信息隐私保护等问题。本文认为,相比于行政规制和自我规制,人工智能标准化治理更适宜采用合作规制模式。首先,合作规制模式符合人工智能标准化过程中的权力结构。在民营化浪潮不断推进的背景下,私人行为者在国家治理中的作用不断凸显,各类“混合规则”(hybrid rule)也层出不穷。按照学者的分析,混合规则体现了国家权力演变的新阶段。在这一阶段,国家的权力并非单纯由传统的政府机构所掌控,而是通过私有化和随之而来的公共领域非政治化过程得到强化,国家与私人行为者的合作、共治关系逐渐取代了传统的政府主导模式,形成了一种新的权力格局。从韦伯和福柯的权力理论观之,技术标准表现出了“混合规则”的特征,它们不仅仅是技术和操作规范的集合,实际上还反映了权力如何在全球范围内通过技术标准得以行使,并通过此种方式影响组织和个人的行为决策甚至社会的文化价值观。因此,合作规制模式通过整合不同领域的“权力”(包括公权力和私权力),帮助建立一个多层次的规制体系,从而使人工智能标准化进程不再仅仅依赖单一的政府干预或私人自律,而是通过多元主体的参与和协作,达成一种动态平衡,以驯化这种新型的“混合权威”(hybridauthority)。
其次,合作规制模式能够更好地契合人工智能标准化治理所蕴含的理论逻辑。人工智能技术的发展不仅仅是技术层面的突破,还涉及到深刻的社会伦理问题,如隐私保护、公平性、透明性等。合作规制模式通过多方主体的参与,能够确保伦理审视贯穿于标准制定的全过程。合作规制模式可以提供一个动态、灵活的框架,通过政府、企业、行业组织、学术界、技术开发者等多方合作,形成了一个协同互动、互为补充的治理生态。这种治理模式能够使得各方不仅在标准制定过程中提供专业意见,还能在标准实施过程中发挥积极作用。
最后,合作规制模式有助于解决当前人工智能标准化治理面临的困境。在人工智能的标准化治理过程中,合法性不仅来自于政府的强制力,还来自于社会各界的认同与支持。合作规制模式下,政府、企业、学术界和公众等多方利益相关者的广泛参与,能够使人工智能标准制定过程更加公开透明,确保各方的利益和声音得到充分反映。这种多元协作能够增强标准的社会基础,提升标准的合法性和可执行性。此外,人工智能标准的有效性不仅取决于其制定过程,更取决于标准在实际应用中的执行力。合作规制模式下,人工智能标准的实施与监管由多个主体共同承担,其中,国家仍然可以通过设置相应的机制保留对标准的监督,确保在实践中能够及时发现问题并进行调整。这种分层治理、动态更新的模式,能够确保标准根据人工智能技术和社会的变化持续优化,从而提高其实施效果。
综上所述,基于合作规制的人工智能标准化治理模式,能够通过多方主体的协同合作,有效解决当前人工智能标准化治理面临的正当性、科学性、协调性和有效性困境,可以为构建更加完善和可持续的人工智能标准化治理体系提供理论支持和实践路径。
四、人工智能标准化治理的制度设计:基于合作规制的路径
尽管技术标准在新兴技术治理领域的作用不断凸显,但其也并非完美的规制工具,若使用不当仍然可能引发诸多负面效应,需要从“规制治理”(regulatorygovernance)的角度予以认真审视。为确保合作规制模式的有效落地,其制度设计必须回应前述标准化治理的困境,并吸收负责任创新(responsible innovation)、正当程序等理论的精髓。系统论法学关于法律系统与其他社会子系统(如科技、经济)之间“结构耦合”的理论,为我们理解标准与法律的互动提供了深刻的启发。它启示我们,有效的治理并非通过一方对另一方的直接控制,而是通过创设制度化的接口(interface),使得法律系统能够向标准制定过程施加“规制压力”,同时标准体系也能向法律系统反馈“演化刺激”。结合上述理论观点,本文认为,可以从以下四个方面完善我国人工智能标准化治理中的制度设计:一是就人工智能标准的功能地位而言,要促进技术标准与法律规则协调共生;二是就人工智能标准的内容设计而言,需要采取基于证据的方法科学确定标准的主题及优先事项;三是就人工智能标准的制定程序而言,应当最大限度地遵循正当程序原则;四是就人工智能标准的实施监督而言,应当建构动态问责机制,包括备案审查、评估、认证等机制。
(一)人工智能标准的功能地位:标准与法律协调共生
在人工智能技术快速发展的背景下,技术标准与法律规则之间的协调共生成为构建高效、可持续治理体系的关键议题。从系统论视角来看,人工智能标准化治理不仅仅是技术标准与法律规则的简单叠加,更是二者在复杂互动关系中通过相互作用、动态调整与反馈机制,实现整体系统优化与协调运作的过程。因此,理解技术标准与法律规则之间的协调关系,需要从二者在人工智能治理体系中的功能地位出发,审视其协同作用的机制和路径。
从功能定位上看,技术标准与法律规则在人工智能治理中扮演着不同但互补的角色。法律规则作为国家意志的体现,其主要功能在于确立人工智能研发与应用的根本性原则、划定不可逾越的权利边界、保障核心公共利益。它构成了治理体系的“宏观框架”,通过普遍适用的条文,为技术标准的制定和执行提供了基础性的正当性来源与法律保障。然而,法律规则固有的概括性与稳定性,使其在面对日新月异的技术细节时,不可避免地存在“步调问题”,即法律更新的速度远不及技术演化的速度。技术标准恰好能弥补法律的这一结构性短板。由行业专家、技术开发者等多方主体共同制定的技术标准,具备更强的适应性和灵活性,能够快速响应技术需求,提供具体、可操作的规范指引。它深入到人工智能系统的设计、数据处理、风险管理等技术细节层面,将宏观的法律原则具象化为可测量、可验证的技术要求,从而有效降低技术应用中的不确定性。因此,技术标准在治理体系中的功能,是对法律规则的精细化展开与动态化实现,是确保技术应用合规性与安全性的关键工具。
然而,技术标准与法律规则的关系绝非单向的补充,而是一种双向互动、协同演化的共生关系。法律的权威性需要借助标准的技术性来落地,而标准的有效性则必须在法律的框架内获得确认与保障。这种动态的互动可以通过两个制度化路径得以实现。
一是法律规则塑造技术标准的方向、边界以及核心价值。为加强技术标准和法律规则的内在关联,需借助“标准法律化”的顶层设计,把涉及人工智能基础安全、核心伦理、重大风险防范等关键领域的标准制定权或者核心要求,明确归入未来人工智能法律的规范框架。可借鉴我国食品安全法的立法体例,一方面,在总则部分明确人工智能标准的法律地位、制定原则、管理体制以及推广应用要求;另一方面,可设置专章或者专条,对关键领域的人工智能标准的性质、制定主体、核心内容范围、制定程序以及违反强制性标准的法律责任等作出明确规定,赋予这些核心标准清晰的法律效力。要依法保障各级标准化组织在人工智能标准研制中的独立性、专业性与程序正当性,保证其制定的标准可以有效承接法律的要求和精神。
二是技术标准反向促进法律规则的动态调整与前瞻性创新。在人工智能技术快速发展的形势下,新出现的技术形态、应用模式以及潜在风险大多时候会超出当前法律规范的预见范围和囊括能力。技术标准作为技术发展与市场应用的“感知器”和“试验平台”,可灵敏地察觉这些新变化,为法律规范的更新、细化和完善提供有价值的实践数据,不断对事实进行合理定型。展开来说,人工智能标准在实际应用中的有效性评估、风险暴露以及引发的争议解决,都可向立法者呈现现有法律框架在应对新兴挑战时存在的不足与盲点,为人工智能法律的制定、修订乃至司法解释的形成,提供有针对性的证据基础。例如,生成式人工智能在个人信息权益保护、知识产权归属、内容真实性等方面提出的全新挑战,现行法律框架或许难以全面应对。在这种情形下,可以鼓励率先制定相关的技术标准或团体规范,借助在“监管沙盒”或特定试点区域的应用实践,收集数据、积累经验、评估效果,为立法者在平衡创新激励与风险防控的前提下,制定出更具适应性、前瞻性和可操作性的法律规则,提供充分的决策依据,推动法律体系不断发展。在国际实践中,欧洲标准化委员会和欧洲电工标准化委员会就曾针对欧盟《人工智能白皮书》和《人工智能法案》给出专业评估意见,建议在关键术语定义方面参考已有的ISO/IEC国际标准,并将成熟的风险管理标准融入基于风险的人工智能治理路径中。
(二)人工智能标准的内容设计:科学确定标准主题
在理论上,学者提出了“回应型法”(responsive law),以表明一种负责任的、有区别的、有选择的适应能力,它意味着“一个回应的机构仍然把握着为其完整性所必不可少的东西,同时它也考虑其所处环境中各种新的力量”。在人工智能标准化治理中,标准的内容设计是确保技术规范有效性和社会适应性的核心环节。随着人工智能技术的不断演进和复杂化,如何科学地确定技术标准的主题以及优先事项,已成为当前标准化工作中的重大挑战。在这一过程中,采用“基于证据的方法”和“基于试验的方法”是推动标准制定科学性与合理性的重要路径。这两种方法不仅能提供充足的数据支持与实验验证,还能够确保标准内容能够在动态发展的技术环境中保持前瞻性与实效性。
1.基于证据的方法:强化数据驱动的标准设计
“可靠的证据通常被视为制定政策和改善服务的重要依据。的确,如果没有有力的证据,没有对各项选择和可能结果进行深入探讨,几乎不可能实现高质量的决策。”基于证据的方法强调通过数据、研究成果和实践经验来指导标准的制定。此方法要求标准制定者依托大量的事实证据和案例分析,确保标准的主题能够准确反映实际需求,并最大限度地避免主观臆断或理论脱离现实。对于人工智能领域而言,标准的制定不仅需要理论的支撑,更要紧密结合人工智能技术的实际应用场景和存在的具体问题。
第一,通过大数据分析及评估确立证据基础。在人工智能标准的内容设计中,证据基础的构建至关重要。在理想情况下,人工智能标准是根据科学数据制定的,但是在实践中真正能够用于标准制定决策的数据却很少。大数据可以生成生态上有效的、高质量的科学证据,通过分析大量的技术报告、研究论文、市场调研数据以及行业反馈,可以帮助标准制定者准确识别技术发展趋势与潜在的治理风险。例如,针对人工智能算法透明性和可解释性的标准设计,可以基于大数据对现有人工智能模型的行为进行分析,评估其透明度与可解释性,从而为标准的制定提供数据支持。同时,基于证据的方法能够帮助识别人工智能技术使用中的痛点和漏洞,确保标准内容具备科学性和实践性。例如,针对人工智能在数据隐私方面的挑战,可以通过分析过往的隐私泄露案例,构建针对性的技术标准,确保数据处理过程中的合法性与安全性。
第二,证据驱动的标准优先事项确定。基于证据的方法不仅可以帮助确定技术标准的主题,还能为优先事项的选择提供依据。在人工智能技术的广泛应用中,各个领域面临着不同的技术挑战,标准的制定应当优先解决那些影响深远且迫切需要规范的问题。例如,在人工智能应用于医疗、金融等敏感领域时,可能会优先确定数据隐私保护、算法公平性等标准主题。基于证据的分析能够帮助评估不同领域的技术风险,从而为标准内容的优先排序提供科学依据,避免因标准制定滞后而造成社会利益的损失。在比较法中,美国国家标准与技术研究院(NIST)按照技术成熟度和规制紧迫性,将人工智能标准体系划分为三个动态层次:首先是基础性且时机成熟的标准领域,涵盖了人工智能的术语与分类、测量方法和指标、透明度机制、风险管理机制、安全性和隐私、训练数据等;其次是具有规制前瞻性但仍需深化研究方能形成共识的标准领域,如对人工智能模型的资源消耗进行量化评估;最后是具有重大意义但尚需基础理论突破的标准领域,如可理解性(interpretability)与可解释性(explainability)的技术实现、高效的人机协同配置等。
第三,科学设定不同层级标准的内容。如前所述,在我国人工智能标准化实践中,国家标准、行业标准、地方标准、团体标准等不同层级的标准均就人工智能的相关事项开展了标准化活动。然而,我国标准化法并未对不同层级的标准设定明确的内容范围,这导致实践中出现了标准内容冲突、违反法律规定的问题。例如,中国消费者协会就曾提出要加强对食品安全领域团体标准的监督,原因就在于“团体标准先天带有很强的集团利益特征,参与企业可能会基于自身立场制定有利于企业的规定,也可能为达成特殊目的有意违反相关程序规则”。有鉴于此,本文认为,我国未来在人工智能立法过程中,应当结合大数据分析评估提供的依据,对各类标准的内容范围作出方向性规定。例如,涉及众多不特定用户或消费者和社会公共利益的术语标准、基础通用标准不应由行业标准、地方标准和团体标准确定,而应由国家标准来确定,防止行业标准、团体标准成为企业共谋损害用户或消费者合法权益的工具。
2.基于试验的方法:通过试验验证标准的适应性与有效性
在新技术规制领域,理论与实践提出了不同形式的试验,包括试验性治理、试验性立法和试验性创新。其中,试验性治理旨在探索并评估不同治理层面上政策的实施效果,尤其是政策在实际操作中如何应对不同社会群体的需求、如何促进公共利益,以及如何平衡不同利益之间的冲突;试验性立法则聚焦于验证特定立法措施在解决具体监管问题时的有效性与可操作性;试验性创新主要关注新产品和服务的推出以及这些创新所带来的效果与副作用。我国标准化法第18条规定,制定团体标准,应当组织对标准相关事项进行调查分析、实验、论证。近年来,在人工智能、机器人等技术治理中,基于试验的方法亦逐渐获得关注。就人工智能标准化治理而言,基于试验的方法强调通过试验来验证技术标准的适应性、有效性和其他效果,及时发现标准在实施中可能面临的问题并进行修正。
第一,合理设定试验性标准化的目标。试验性标准化的核心目标是对标准化的有效性与效果进行全面测试和评估。人工智能标准的有效性是指它在实现特定目标方面的直接影响,例如确保人工智能系统的透明度和可解释性是否如预期那样得以实现。但人工智能标准的效果不仅限于此,还涉及标准实施过程中可能带来的其他后果,尤其是那些非预期的效果。标准可能在其设定目标上是有效的,但在实践中可能会引发一些未曾预见的问题或副作用,这些副作用可能对某些群体产生负面影响,甚至可能加剧社会的不公平。因此,对人工智能标准进行潜在效果的测试显得尤为重要。
第二,利用人工智能监管沙盒实现试验性标准化。监管沙盒原本是一种源自金融科技领域的监管模式,旨在允许企业在限定条件下测试其创新产品、服务或商业模式,同时确保对消费者和社会的潜在风险可控。近年来,这一模式逐渐被扩展到人工智能领域,为推动试验性标准化提供了新的思路和实践场景。人工智能标准的技术性和实用性使得它们更适合在沙盒环境中进行提前测试。通过这种方式,监管沙盒能够在法律和标准的制定之间搭建桥梁,为立法者和技术标准制定者提供可靠的数据和实践依据,从而确保人工智能技术的规范发展。此外,在人工智能标准正式批准之前,监管沙盒能够通过模拟真实环境中的实际运行情况,对标准进行试验测试。这种方法不仅能够验证标准的技术可行性,还能够评估其在不同应用场景中的适用性与有效性。
(三)人工智能标准的制定程序:遵循正当程序原则
正当程序原则作为现代法治国家行政与立法活动所遵循的基本准则,其核心要义在于保证决策过程的公开性、公平性以及公正性,同时给予所有直接或者间接利益相关方充分表达意见、参与协商并获得合理回应的机会。尽管技术标准,尤其是数量众多的推荐性标准,其法律地位与强制力和严格意义上的法律规范有所不同,但鉴于其对市场行为、技术路径乃至社会福祉的深远影响,其制定程序也要严格依照并充分呈现正当程序原则的精髓,以此作为获取合法性与社会认同的基础。正如学者所指出的:“标准化领域的内部行政法之形成,既非源自工业界的内生性制度自觉,亦非工程领域自主的程序规则演进。其发展实则是漫长而复杂的规范移植过程,通过吸纳、有时甚至是强制导入多元法律渊源的规范与原则。”人工智能标准的制定,由于其高度的技术复杂性、潜在的伦理风险以及对社会各层面广泛而深刻的影响,故而对其制定程序的正当性提出了更为严格的要求。这不仅意味着程序形式上的完备,更指向实质层面的权力制衡与民主参与。我国标准化法第二章已经对“标准的制定”作出了原则性规定,强调应当遵循“开放、透明、公平的原则”。欧盟《标准化条例》[Regulation (EU) No 1025/2012]同样在第二章专门规定了“透明度和利益相关者参与”的核心要求。然而,面对人工智能标准制定中技术精英话语权容易膨胀、公众与中小企业实质性参与不足等可能引发的问题,我们要突破传统意义上的程序性要求,探索构建更具包容性、赋权性和实质性的正当程序保障体系。
一是建构合作规制框架下的多方实质性参与机制。“程序维度的合法性是标准制定过程的产物,关涉到哪些主体在怎样的条件下参与。”技术标准的制定,尤其是对社会经济生活具有深远影响的人工智能标准,必须确保最广泛利益相关者的实质性参与,而非仅仅停留在形式上的意见征询或少数代表的点缀式出席。参与的多元主体不仅包括技术专家、行业龙头企业代表、政府相关监管部门,更应将关注点和资源投入到吸纳和赋能那些通常在标准制定博弈中处于弱势地位的参与方,如伦理学者、社会组织代表(特别是消费者权益保护组织、环境保护组织等)、中小微企业代表以及普通社会公众代表。我国标准化法第7条虽鼓励多元主体参与标准化工作,但在实践中如何保障多元主体参与的“实质性”与“有效性”仍是关键。欧盟《标准化条例》对此有更进一步的要求,强调标准化组织必须采取积极措施,鼓励并促进所有相关方,特别是中小微企业、消费者代表和社会利益相关方(如环境、工会组织)的代表性和有效参与,如通过简化程序、提供技术援助、减免费用等方式降低其参与门槛。
二是确保标准制定全过程的高度透明与信息公开。在行政法架构内,透明度属于程序正当的关键要素,此要素促使行政机关以及相关组织积极主动、及时且全面地公开自身决策过程、依据、理由以及最终结果,以此接受外部监督与评估。正当程序原则对标准制定过程提出要求,从立项、起草、征求意见、技术论证、审议直至最终发布以及后续的解释、修订,每一个关键环节都要尽可能向社会公开,还要为公众提供便捷有效的反馈渠道。在人工智能这一技术高度密集、社会影响颇为深远的领域,标准制定过程更应当成为透明治理的典范。可以构建一个统一、权威且便于访问的“人工智能标准信息公开平台”,系统发布所有正在制定或者已经发布的人工智能国家标准、行业标准、地方标准以及有重要影响的团体标准草案及其编制说明、主要分歧意见及处理情况、技术验证报告、伦理影响评估报告等核心文件。对于标准草案的公开征求意见期,要给予社会各界充足的研读与反馈时间。标准制定机构对于所征集的公众意见及其采纳情况,都应以恰当方式公开说明理由。同时应逐步推动标准文本的开放获取,特别是对于涉及公共安全、公民基本权利以及由政府财政支持形成的技术标准,必须强化其公益属性,通过消除“付费墙”等访问壁垒,保障公众知情权的实现与监督渠道的畅通。
三是健全跨学科的专家审议决策机制。依据正当程序原则,技术标准的制定不仅要广泛征求各方意见,而且更依赖于严谨、独立且有广泛代表性的专家审议。我国食品安全法第28条规定的食品安全国家标准审评委员会制度就体现了这种精神,要求审评委员会由医学、农业、食品、营养、生物、环境等多方面专家以及相关部门、行业协会、消费者协会的代表构成,对标准草案的科学性和实用性等开展综合审查。人工智能标准由于同时涉及尖端技术、复杂法律问题和深刻伦理意涵,其专家审议机制要突出跨学科性和多元视角。在人工智能标准制定过程中,应该组建或者授权有高度公信力的跨学科专家委员会,广泛吸纳计算机科学、数据科学、控制理论等技术领域的专家,同时要保证法学、伦理学、社会学、心理学、政治学、传播学等社会科学与人文领域专家的深度参与以及实质性发言权。专家委员会的审议范围不能只局限于技术可行性与经济效益,还要对标准草案可能带来的社会影响、伦理风险、法律冲突等进行全面且审慎的评估。在决策机制上,决议的形成应遵循多数决(如到会专家的4/5)或协商一致等程序性要求,审议过程要详细记录,相关结论与理由要向社会公开。
四是完善标准异议申诉与定期复审机制。在技术标准制定以及实施的整个过程中,部分利益相关方或许会对标准的具体条款、制定程序、解释适用或者实施效果进行异议申诉。正当程序原则要求为这些异议申诉提供清晰、便捷、公正并且有效的处理途径。我国标准化法第35条虽规定了“投诉举报机制”,主要是要求标准化行政主管部门等公开受理渠道并且安排人员处理,但更多是偏向于行政层面的监督。在人工智能标准制定及实施过程中,除了强化行政主导的投诉举报机制外,各级标准化组织也应当构建标准异议申诉与定期复审程序:(1)制定相应的程序规则,明确规定利益相关方在标准草案公示期、标准发布之后的一定期限之内,均可就标准的实质内容、程序瑕疵或者潜在的负面影响提出正式异议或者复审请求。(2)可以在内部设立相对独立的异议处理小组或委员会,对收到的异议申诉进行登记、调查、(必要时)听证,在规定期限内给出书面答复,并说明理由。(3)建立人工智能标准的定期复审制度,主动评估标准的有效性、适应性以及潜在风险,并依据技术发展、法律变化以及社会反馈及时启动修订或者废止程序,确保标准的“时效性”与“回应性”。
(四)人工智能标准的实施监督:建构动态问责机制
将原则转化为实践已经成为人工智能治理最紧迫的挑战之一,这也是人工智能标准化治理面临的问题。为了促进人工智能标准的全面实施,增强人工智能标准的“输出合法性”,建立一个健全的监督问责机制显得尤为重要。这一机制不仅要确保标准符合法律、伦理及社会要求,还应当具备动态性和可操作性,以适应技术创新和应用场景的变化。在合作规制的模式下,以我国现行的标准备案审查制度为基点,构建一个公私协同的实施后评估与审查机制,从而为人工智能标准的“规范实效”提供坚实的制度保障。
第一,建构基于备案审查制度的标准化审查机制。我国的备案审查制度已经在多个领域取得了较好的效果,尤其是在对行政法规和规范性文件的审查中,起到了有效的合法性保障作用。就标准化活动而言,我国一般要求国家标准在批准发布之前应当经由标准审查委员会进行审查,而对于地方标准、行业标准、团体标准则并未明确要求是否需要进行审查。例如,在食品安全领域,按照我国食品安全法的规定,国家标准应当经食品安全国家标准审评委员会审查通过,而地方标准和企业标准只需向卫生行政部门备案即可。鉴于人工智能技术可能产生广泛的技术、经济和社会影响,如果存在缺陷的定义、测量或方法成为人工智能技术发展的标准,相关消费产品或服务就可能会以潜在有害的方式进入市场、人体和环境。因此,本文认为,在人工智能标准化治理中,应当建立更具回应性的标准审查制度:(1)由国家标准化管理委员会和工信部组建人工智能国家标准评审委员会,委员会的成员应当具有代表性和权威性,既包括各领域的专家学者,也包括行业协会、消费者保护协会的代表。在此基础上,国家标准在批准发布之前应当由人工智能国家标准评审委员会进行审查,事关不确定多数用户或消费者和社会公共利益的地方标准应当由人工智能国家标准评审委员会进行备案审查。(2)省、自治区、直辖市人民政府的工信部门应当组建相应的标准评审委员会,对事关不确定多数用户或消费者和社会公共利益的团体标准、企业标准进行备案审查。(3)人工智能标准评审委员会在进行审查时,应当重点开展如下两个方面的审查:一是合规性审查。检查标准是否符合国家法律法规及政策要求,是否尊重和保障公民的基本权利。二是伦理审查。确保标准的制定过程遵循伦理原则,特别是在涉及自动化决策、人工智能与人类互动等领域时,审查标准是否符合道德规范,是否符合公平性、透明度等基本伦理要求。
第二,完善标准的动态监测与评估机制。任何控制系统,由于环境变化造成的信息干扰,总会使受控系统的输出状态偏离给定状态,因此采用反馈控制方法,可以减少偏差信息,提高受控系统运行过程的稳定性。鉴于技术标准通常是相关参与者博弈和妥协的结果,一旦达成一致,标准往往会沉淀和停滞,而不是随着新信息或新发展的出现而保持灵活性和开放性,因此有必要通过反馈控制方法提升技术标准的回应性。例如,我国食品安全法第32条规定,省级以上人民政府卫生行政部门应当会同同级食品安全监督管理、农业行政等部门,分别对食品安全国家标准和地方标准的执行情况进行跟踪评价,并根据评价结果及时修订食品安全标准。随着人工智能技术的不断发展,新的技术、应用场景和社会需求不断涌现,现有标准可能面临滞后或不适应的风险。因此,建立一个动态监测与评估机制,对人工智能标准的实施效果进行持续检测和评估,是确保标准有效性的关键。具体措施包括:(1)实施后评估。在标准发布并进入实施阶段后,应定期评估标准的实际效果。评估内容包括标准是否有效解决了技术应用中的安全隐患、是否促进了技术创新、是否保护了公众利益等。(2)常态化反馈机制。通过定期的反馈机制,收集企业、行业组织、技术专家、法律专家及公众的意见,评估标准在实施过程中可能出现的问题。例如,某些标准可能在实际操作中过于复杂,或者无法适应新兴技术的应用,反馈机制能够及时发现并修正这些问题。
第三,建立第三方检验认证机制。第三方检验认证作为独立于技术开发者和政府监管机构的第三方力量,能够利用其资源、专业、信息和多样化方面的优势对人工智能系统的合规性进行客观评估,确保技术的透明性、可追溯性和符合社会伦理标准。目前,在个人信息保护领域,第三方认证的治理效能逐渐获得关注。我国个人信息保护法第62条规定,国家网信部门统筹协调有关部门依法推进个人信息保护社会化服务体系建设,支持有关机构开展个人信息保护评估、认证服务。因此,在人工智能标准化治理中引入第三方检验认证机制不仅具有现实意义,而且能够获得可供借鉴的有益经验。然而,将第三方认证机制引入人工智能标准化治理,要高度警惕其潜在的“市场失灵”风险和“独立性”挑战,防止出现认证机构因过度追逐商业利益,或在技术上受被认证方制约,或与被认证方形成“旋转门”关系,致使认证质量降低、标准被架空、“劣币驱逐良币”等情况。我国可以从以下两方面审慎推进人工智能标准的第三方检验认证机制:一是通过法律、行政法规、部门规章与技术标准对人工智能相关的认证检验机制进行规定,明确检验认证的条件、程序、内容等;二是按照《认证认可条例》的规定,积极推动人工智能领域专业认证机构的设立,同时明确其设立条件、法律责任等,确保其专业性、公正性和独立性。
五、结 语
人工智能的迅猛发展不仅带来了技术创新的机遇,也引发了诸多法律、伦理和社会问题。在这种背景下,传统的单一规制模式面临着巨大挑战,亟需探索更加灵活、高效的规制路径。本文提出通过技术标准规制人工智能,尤其是采用基于合作规制的模式,能够有效克服行政规制和自我规制的不足,提供一种具有适应性和回应性的治理路径。技术标准是我们创造现实的食谱”(recipes),它不仅塑造了我们周围的物理世界,也塑造了我们的社会生活,甚至塑造了人类自身。技术标准具有跨学科、多领域的特性,它不仅可以填补现有法律框架中的空白,还能促进不同利益相关方之间的沟通与协调。从理论上看,在人工智能这一高度复杂和动态变化的领域中,技术标准作为一种规制工具,能够在不过度干预技术创新的前提下,规范技术发展方向,推动行业的健康发展。然而,在实践中人工智能标准化治理也面临正当性、科学性、协调性和有效性等方面的困境。基于行政规制的人工智能标准化治理容易陷入过度干预与低效执行的困境,难以适应技术发展中的快速变化;而自我规制虽然在一些行业内取得了一定的成效,但也可能存在偏向商业利益而忽视公共利益的问题。由此,本文主张通过合作规制模式来弥补上述缺陷。合作规制强调政府、企业、学术界以及公众之间的协同合作,形成多元主体参与的治理体系,能够在保证市场活力的同时,确保技术发展与社会责任的平衡;合作规制可以通过相关制度设计,有效解决当前人工智能标准化治理面临的正当性、科学性、协调性等方面的困境,充分激发和释放技术标准的治理效能。
原文刊载于《比较法研究》2025年第4期,感谢微信公众号“比较法研究”授权转载。