当前位置:首页 > 文献资源 > 论文著作 > 理论推演
王静、张红|人工智能在数字政府建设中的应用及其法治化路径 ——基于DeepSeek在数字行政中应用场景的分析
2025年07月02日 【作者】王静、张红 预览:

【作者】王静、张红

【内容提要】


人工智能在数字政府建设中的应用及其法治化路径

——基于DeepSeek在数字行政中应用场景的分析






王静 北京师范大学法学院副教授

张红 北京师范大学法学院教授








摘要:DeepSeek为代表的生成式人工智能正成为我国数字政府建设中新的技术变量。各层级政府都将人工智能应用作为数字政府建设的重要切入点。当前政府应用DeepSeek等主要在内部办公、智能问答、政策推送和辅助行政管理等场景。区别于企业和个人,政府应用人工智能技术在目标与任务、数据处理、算法应用的要求、技术应用产生的影响等方面具有特殊性,同时也隐含着合法性、政务数据安全、加深偏见与差别化待遇以及技术避责等风险。人工智能在数字政府建设中的应用及其法治化,应当遵循安全优先原则、合法原则、透明原则和责任原则。应当积极对行政系统的内部治理进行调适,提供以软法为先导、兼容硬法的法律规则供给、推行监管沙盒策略、采取风险规制的措施并强化对采购和部署的监督。

关键词:生成式人工智能法治 数字政府智能政府 DeepSeek






引言

人类社会对政府治理的探索历经科层制、新公共管理以及网络化治理的变迁。网络化治理在受到智能技术发展的影响之后,开始迈向智慧治理的高阶形态。政府的数字化进程已经从在线政府(E-Government)演变为信息智能政府(I-Government)。大数据、云计算、区块链和人工智能在过去十年里得到了迅猛发展。在所有这些新的信息技术进步中,人工智能脱颖而出,其所引发的热潮远超以往任何一种技术。人工智能不仅赋能各行各业,重塑生产力乃至生产关系,还将对行政组织结构、行政权力运行方式产生深远影响。

国内外有关人工智能与公共治理的研究目前主要有两个维度,即“作为治理对象的人工智能”和“作为治理工具的人工智能”。前者将人工智能视为治理对象,分析其风险隐忧及治理路径;后者将人工智能视为治理新工具及驱动要素,分析其应用带来的赋能变革作用。目前国内法学界对于人工智能技术的研究主要集中于作为治理对象的人工智能。然而,作为治理工具的人工智能技术或许更值得我们关注。目前,大多数分析集中于人工智能在企业运用的法律后果及其对个人权利的影响上。相比之下,鲜有研究关注人工智能在政府中的应用,以及它如何大规模地影响公权力的行使和公民权利。政府应用人工智能技术与企业、个人的应用相比具有哪些特殊性,又在哪些方面区别于以往的互联网、数字化技术?它隐藏着哪些法律风险?由此,政府应用人工智能技术需要遵循哪些法治原则,政府内部治理体系应当如何因应,是亟待探讨的问题。

一、人工智能在我国数字政府建设中的应用现状

一旦大数据、算法等技术兴起,其实现政府治理目标的潜在效用和规模效应自然得到青睐。这就是数字赋能的底层逻辑。”DeepSeek的问世及其在各行业的应用,得益于其开源免费与低成本的本地化部署。同时,其国产化属性减少了数据安全疑虑,使政府部门迅速行动,步入场景拓展与系统深度融合的新阶段。这种低成本普惠场景深耕生态构建的递进式发展路径,标志着我国数字政府建设从工具层效率优化向系统层能力重构的新阶段跃升。

经过对北京、上海、杭州、广州、海口等城市的实地调研与综合分析,我们观察到人工智能大模型正逐步渗透并应用于多个领域。例如,深圳福田区已推出涵盖11大类、共计70名的“AI数智员工”,首批即能满足240个业务场景的需求。DeepSeek等人工智能技术主要运用于以下几个场景:

(一)政府内部办公

生成式人工智能最初突破是在自然语言对话、问题回答、文字改写润色和创意输出等方面,政府公文写作自然成为这一技术的最佳应用场景。政府内部办公主要聚焦于人工替代性质的应用,通常涉及简单工作兼具监督与复盘的功能。其特点包括:一是重复性强,创造性与自主性较低,导致人力消耗较大;二是细节繁琐,需频繁修改、审阅与核对,难以统一处理;三是与基层实践紧密相连,涉及与下级部门或企业、组织的信息交流;四是应用范围从文字生成逐步扩展到图片、视频、音频等多种形式的生成。比如杭州“数智公务员”,覆盖15种法定公文、7类事务文书模板,实现内容一键生成、智能排版校对。

(二)提供政务服务

政务服务主要面向群众、企业,实践中包括业务办理、智能平台建设、信息查询服务、公共资源交易、信用监管等场景。其中,应用最广的政务智能客服,可利用大模型强大的自然语言处理、逻辑推理和多轮对话能力,实现与公众的流畅互动,解答法律政策疑惑,提供便捷的办事指导。例如杭州“亲清小Q1分钟精准解读政策;北京丰台区“丰小政”数智助手,帮助工作人员快速准确理解办事人的问题并给出答案;广东“粤省心”智能客服的回复准确率高达90%。部分地区则在12345投诉举报热线和信访处理中引入DeepSeek等大模型,实现案源的自动分类与分派,同时协同人工智能客服迅速响应民众的投诉、举报及咨询等需求。

(三)公开政府信息

智能技术可助力政府信息主动公开的内容草稿撰写、合规审查、勘误校正等方面的效率提升。信息主动公开变得更加透明、更加具有针对性。例如,与企业相关的政策精准匹配与资金支持的自动化推送,系统通过算法和语义分析技术,向企业反馈可申报政策名称、匹配度、适用范围、资金额度及申报期限等信息,进而实现惠企政策的精准推送,及时提醒企业申报,甚至无需申请即可直接拨付资助。此类应用与行政奖励、行政补贴等紧密联系,比如杭州实现“千人千面”政策推荐,“免申即享”政策2782条,219亿元政策资金“主动兑、快速兑”,企业经办人仅需确认即可领取资金。对依申请公开政府信息,大模型可进行自动分类、自动分发、自动草拟和自动审核乃至自动回复。

(四)辅助行政管理

人工智能虽然还不能直接改变执法的形式和内容,但是可以更好地识别风险规制的关键点,更加科学地确定行政检查频次和监管重点。在行政许可事项办理中,智能辅助审批可自动审核当事人按模板提交的材料,加速审批流程,并应用于备案、报告等,涵盖企业开办、不动产登记、政策匹配及跨区域协同等场景。例如,通过部署DeepSeek,湖南省娄底市抵押登记、预告登记等业务实现智能核验,材料审核由原来的两小时锐减至五分钟;安徽省六安市市场监管局实现企业开办全流程智慧审批,“秒级智审”“立等可取”。

(五)优化公共服务

主要用于改善如医疗、养老、旅游、教育发展等与社会民生有关的服务。具体包括医疗卫生智能化服务、智能化养老服务、智能化旅游平台建设、文化发展与专利保护、民生服务智能化评估等。这些智能化应用的特点表现为人机交互连接性较为紧密,与民生息息相关。在杭州,人社局推出的人工智能体“依保儿”实现了语音识别准确率高达98.3%和意图理解准确率95.6%的突破。参保人员可以通过与“依保儿”的语音交互,轻松提出备案需求,在1分钟内高效完成备案流程。杭州市文旅局推出的人工智能体“杭小忆”,可以帮助各地游客量身定制旅游方案。

目前地方政府应用人工智能技术呈现出几个明显的特点:一是应用这一技术的地方政府逐渐增多;二是很多地方政府在DeepSeek面世后短期内迅速部署了应用;三是应用主要集中于政务服务和公共服务;四是各地尚未制定关于政府人工智能技术应用的规则。

二、政府应用人工智能技术的特殊性与潜在风险

目前,通过制定法律规范人工智能技术的应用已经成为国际共识,政府应用人工智能技术自然也应当实现法治化,这似乎并不需要进行专门论证。人工智能并不像互联网那样,在消除物理限制(如距离、存储等)的情况下,改变我们进行活动的方式,而是影响最终成果的实现方式,因为它通过替代人类因素来执行这些活动。问题在于,政府应用人工智能技术是否应当遵守特殊的规则?为此,我们需要从两个视角揭示政府应用人工智能技术的特殊性以及潜在的风险:一是区别于企业和个人应用人工智能的视角,二是区别于互联网技术和数字技术的视角。

(一)政府应用人工智能技术的特殊性

政府应用人工智能技术与企业和个人的应用相比具有以下特殊性:

1.目标与任务的差异

政府应用人工智能技术旨在履行行政职权、优化公共服务,力求公共利益的最大化。其职能涉及经济调节、市场监管、社会管理、公共服务和生态保护等多个方面,关乎社会的稳定与民众的福祉。从辅助政府决策,到辅助行政执法,再到提供公共服务,政府应用人工智能技术因其关涉国家安全和公共利益,具有很强的公共性。政府在应用人工智能技术时,秉持公益优先的价值取向,强调公平、公正、公开和平等,确保技术的应用符合公共利益。相比之下,企业对人工智能的应用则侧重于通过降低成本、提升产销效率来增强市场竞争力,追求经济效益的最大化。

2.数据处理的特点

数据是人工智能技术的核心资源,政府、企业和个人在数据的来源、使用、共享和开放等方面存在显著差异。政府的数据来源丰富且规模庞大,涵盖人口信息、经济数据、地理空间数据、公共卫生数据等多个领域。这些数据来源于政府各部门的日常业务办理、社会调查、传感器监测等多个渠道,还通过人工智能技术的应用,如环境质量监测、交通信号灯的智能控制、能源的智能调度等得到丰富,使数据处理的效率和质量也得到了提高。政府在使用数据时采用严格的数据加密、访问控制等安全措施,依法保护个人信息,确保数据不被非法获取和滥用。政府内部数据以共享为原则、以不共享为例外,旨在消除数据壁垒,避免部门数据垄断;政务数据开放则以推动开放为核心,采取不开放、有条件开放、无条件开放及授权运营等多种方式。正因如此,鉴于行政活动往往涉及重大公共利益,其在人工智能技术应用方面的合规要求尤为严格,特别是在金融、国家安全等关键领域。

3.算法应用的要求

在算法应用方面,政府面向公众输出人工智能结果时,其要求比企业更高,必须进行歧视的预先审查,谨防出现违反宪法和法律的歧视现象。对于未来可能对公民合法权益造成重大影响的算法,若直接用于决策或决定,政府部门应当适用算法透明和可解释的要求。目前大型平台企业在算法透明和可解释上已承担法定义务。政府依据对企业和个人的精准画像,实施政策推送与补贴发放。当然,算法应用于决策时程序也有不同。政府决策流程繁琐,人工智能主要扮演辅助角色,仍需人工审核以确保决策的科学合理性,直接由人工智能决策的情况较为罕见。

4.技术应用产生的影响

人工智能技术的应用对政府、企业和个人均产生了深远影响。政府可借助技术提升工作效率,减少人力成本,改革履职方式和公共服务模式。然而,这也带来了技术依赖、过度信赖人工智能及难以消除幻觉等挑战,可能损害履职和公共服务的权威形象,甚至造成不必要的资金浪费。从短期来看,政府可减少重复人力投入,提高行政效能。从长期来看,随着人工智能技术的深入应用,政府层级架构和运行流程可能面临颠覆性的变革,公职人员的录用和考核标准亦需适应时代发展进行调整。政府部门必须在立法层面积极回应人工智能技术带来的挑战,确保劳动力结构的调整能够促进社会稳定。

(二)政府应用人工智能技术的潜在风险

人工智能技术的应用可能产生算法“幻觉”、算法偏见、算法黑箱、数据安全等风险。当政府成为应用人工智能技术的主体时,一方面,因其涉及公共利益,人工智能技术本身蕴含的风险有可能被无限扩大,甚至会产生不可弥补的损失;另一方面,与之前的互联网技术、数字技术相比,人工智能技术具有更大的潜在风险。

1.合法性风险

人工智能技术日益深刻地嵌入政府行政过程之中,所形成的新的算法治理工具与以前的技术创新截然不同。首先,需要进行大量的知识图谱绘制、算法建模和代码编写。其实质是把行政规范、行政过程以及自由裁量转化成计算逻辑和代码的自动执行。法律规则被编写为条件(if-then)语句,在此过程中会不可避免地嵌入编码者的主观判断、过往经验和价值取向。通过这一编写过程,法律规则有可能被重新改写、重新解释。由于法律规则本身既有确定性又有语义的模糊性,因此,关于法律规则的算法模型需要太多层叠无休的复杂决策树。如果法律规则被扭曲,其结果显而易见。其次,人工智能算法会令人更加难以理解,即使是系统的工程师也可能不完全理解它是如何得出结果的。在传统的统计分析中,使用相对较少的解释变量对结果进行建模,并且生成的模型仍然相对简单。相比之下,最先进的机器学习部署了更复杂的模型来了解数百甚至数千个变量之间的关系。模型的复杂性可能使得很难隔离任何特定变量对结果的贡献。

由此引发了至少两个层面的合法性风险:第一,政府应用人工智能技术的权力来源问题,是谁赋予了政府应用人工智能技术的权力?众所周知,“法定职责必须为,法无授权不可为”是最基本的原则,但目前关于政府应用人工智能技术并没有任何授权性规定。形成鲜明对比的是,各地方政府正在积极推进人工智能大模型渗透并应用于多个行政领域,且有越来越多的政府加入这一行列,这更加剧了政府应用人工智能的合法性风险。第二,目前尚不清楚哪些因素将决定一个算法是否被视为具有约束力,以及是否具有强制性,这需要深入思考技术和法律问题。我们不得不面对一个问题:一个仅被视为辅助性的算法系统,在实践中是否由于对决策者的判断产生影响而具有约束力——从而跨越内部界限,对公民权利和利益产生实质性影响。

遗憾的是,《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律中并没有相关规定。目前有关人工智能的管理规定,包括《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》等,都是针对组织或者个人,均不包括使用生成式人工智能服务的政府部门。

2.政务数据安全风险

行政权对技术的拥抱态势逐渐催生出“数治”这一新的治理技术。数据的质量与数量直接决定了大模型的性能优劣,进而影响其满足政府工作需求的程度。比如,美国《国家人工智能研发战略计划》中强调推进以数据为中心的知识发现方法的重要性。

一方面,随着人工智能技术在政府的大量应用,特别是随着政务系统互联互通建设的不断深入、数据的分析与交互日益频繁,数据汇聚、关联引发大量风险。由于政务数据具有敏感程度高、数据量庞大、覆盖范围广、关联关系复杂等特点,也成为诸多势力觊觎的对象。这些政务数据不仅关涉政府的决策和行政处理决定,还关涉公民个人的信息。虽有数据本地化存储与云计算保密处理等手段,但仍存隐患,一旦泄露,损害后果将难以估量。另一方面,受制于政府经费和技术能力限制,各地方政府主要通过采购企业开发的大模型或者采取业务外包方式,这将加剧政务数据的安全风险。实践中也已经出现为政府提供人工智能服务的企业,其工作人员盗取海量的政务数据并出售给有业务需求的企业的情况。此外,行政机关工作人员个人调用人工智能技术,政府内部对此既未严格禁止也未统一部署,更加剧了安全风险。

3.加深偏见、差别化待遇的风险

政府日益广泛地应用人工智能工具,可能会加剧对弱势群体的偏见,也有可能会产生新的差别化待遇。

有充分证据表明,人工智能工具有可能加剧对弱势群体的偏见。首先,从快速发展的关于公平和机器学习的文献中,我们知道机器学习对偏见进行编码的潜力巨大。例如,犯罪风险评估可能错误地将某些或者某类个体归类为“高风险”。与人类决策相比,人工智能辅助决策表现如何是一个关键问题,因为人类决策本身往往就是偏见的起源。其次,政府采用这些技术,更多考虑的可能是提高行政效能、提升行政便利度,但这有可能会剥夺一部分人享受政务服务、公共服务的权利。社会上还有很多人无法接入互联网、没有智能手机,也没有能力在手机上进行各种复杂的操作。即使人们不愿意接受,但数字鸿沟(digital divide)仍然随着新兴技术的运用在持续扩大。再次,不具代表性的或有偏见的数据用于模型训练和验证,可能导致有偏见的预测;变量选择、分类方法以及目标变量的不同设定,可能会导致截然不同的结果;模型架构和类型意味着对世界的强烈假设;优化过程包括不同目标和错误类型的政策权衡,等等。算法系统及其目的的定义,产生于一个包含规范、权力分配等要素的特定背景中。所有开发阶段,包括选择模型类型、训练数据、优化目标、结果变量和用户界面设计,都充满了政策选择和价值偏好。

4.技术避责的风险

人工智能技术越成熟,算法越自主,行政管理中人的主体性丧失的可能性越大。“各主体对算法程序产生的依赖和服从,还可能会使得以人类为核心的权力主体开始成为被规训的对象,人类作为公共行政的实践主体角色逐渐迷失,在诸多政府治理场景中存在开始退居幕后或完全退出的趋向。”技术避责是利用技术作为工具或者借口来逃避本应承担的责任的行为或者现象。常见的场景包括算法决策避责、信息系统流程避责、数据问题避责、自动化事故避责等。政府运用人工智能技术时,面临责任主体不明确、责任追究链条断裂的风险。进一步讲,数字技术的加持使得行政权相对司法权具有结构性、系统性优势,司法对行政活动的问责和监督被弱化甚至虚置,在关键领域,确保人类对技术决策拥有最终的审查权和否决权,并非易事。

三、政府应用人工智能技术的法治原则

人工智能在数字政府建设中的应用及其法治化,应当遵循安全优先原则、合法原则、透明原则和责任原则。

(一)安全优先原则

不同于人工智能立法针对人工智能产业所秉承的“安全与发展并重”理念,数字政府建设中人工智能技术应用法治化路径的选择,应当坚持“安全优先”原则。

1.安全优先原则的内涵

2013119日,习近平总书记在关于《中共中央关于全面深化改革若干重大问题的决定》的说明中指出,国家安全和社会稳定是改革发展的前提。中国共产党第二十届中央委员会第三次全体会议指出,国家安全是中国式现代化行稳致远的重要基础,要把维护国家安全贯穿党和国家工作各方面全过程,健全国家安全体系,推进国家安全科技赋能。早在20177月,美国就发布了《人工智能与国家安全》报告,指出人工智能逐渐成为可影响国家安全的变革性技术。

在总体国家安全观背景下,政府应用人工智能技术应当以国家安全为主,既包括政务数据安全、算法安全,也包括算力安全。

首先,政务数据安全。数据是人工智能技术的基础。政府应用人工智能技术过程中需要大量的政务数据,同时又会产生大量的政务数据。《数据安全法》第38条明确要求国家机关为履行法定职责的需要收集、使用数据,应当在其履行法定职责的范围内依照法律、行政法规规定的条件和程序进行;对在履行职责中知悉的个人隐私、个人信息、商业秘密、保密商务信息等数据应当依法予以保密,不得泄露或者非法向他人提供。目前,我国政务数据安全仍然面临着严峻挑战。

其次,算法安全。在政府应用人工智能技术的背景下,算法也不可逆转地全面嵌入政府治理诸领域,成为影响人们生产生活、社会结构变迁、国家政治发展和人类生产力提升的关键变量。算法在赋能政府治理的同时,也给国家安全带来了前所未有的风险。有人认为,算法带来了新的国家安全风险,使国家安全遭遇技术性功能挑战,算法安全已成为新的国家安全类型。特别值得一提的是,人工智能技术的设计者和运营者,较以往任何时代都更能置身于政府的公共治理过程之中,算法权力从而成为隐性的公权力。

再次,算力安全。算力作为新一代技术的关键动力,在数字政府建设中发挥着巨大作用。然而,在算力规模指数级增长和算力应用场景多元化的发展态势下,算力安全风险的形态、边界、阈值持续变化,算力安全问题日益突出和复杂,各类算力安全事件也频频发生,这意味着算力安全作为一种新兴安全已然成为影响国家安全的关键场域。算力安全问题直接关系到政府治理的稳定和经济社会的稳定。20232月,我国《数字中国建设整体布局规划》指出,要系统优化算力基础设施布局。保障算力安全应成为维护总体国家安全的重要关切点。

因此,应当在保障安全的前提之下,稳步推进人工智能技术在政府的应用,不可盲目激进推进政府应用人工智能技术。

2.政府的内部能力建设

在安全优先原则之下,政府的内部能力建设就显得至关重要。如果没有必要的人员、基础设施和组织资源来了解和应对其环境,任何部门都无法有效地履行其使命。随着政府越来越多地寻求人工智能和算法治理,各部门面临的一个核心挑战是如何培养必要的技术能力,即识别、开发、负责任地使用和维护复杂技术解决方案的能力。建设内部能力,而不是简单地接受外包技术能力的做法,对于避免其风险至关重要。如果我们希望各行政机关负责任地、明智地使用人工智能,技术能力最好来自政府内部。

在这里主要有四个考虑因素:首先,政府需要对其技术和数据基础设施进行投资。这不仅需要硬件和软件升级,还需要收集、标准化和保护部署人工智能工具所需的数据。其次,政府将需要培养内部人力资本,以应用不仅在技术层面可用,而且在法律和政策层面合规的人工智能工具。第三,政府需要投资于全面而灵活的人工智能战略,使政府能够从失败中战略性地学习并发展人工智能技术。对于开发自己的人工智能工具的部门来说,需要创建具有明确成功指标的迭代开发和评估流程。最后,如果政府不得不依赖外包或者采购的方式进行能力建设,政府采购将成为获取更优人工智能系统的关键工具,这就需要一套具有针对性的制度设计。

(二)合法性原则

对于政府应用人工智能技术,国外有学者从宪法的角度关注权力的异化与空心化、人权保障等问题。更为实际的应当是考虑行政法将如何适应向算法治理的转变。正如有学者指出的,监管政府新算法工具包的大部分艰巨工作将不是来自宪法学说的云端,而是来自行政法的成文法现铺就的街道上。目前,行政法在学术和政策讨论中实际上的缺席令人担忧。政府应用人工智能技术,仍然应当坚持合法性原则,要解决的首要问题是是否需要针对政府应用人工智能技术进行专门的立法?哪一层级的政府可以作为立法主体?

1.需要授权政府应用人工智能技术的立法

2020123日,美国政府发布第13960号行政命令《促进联邦政府使用可信的人工智能》,该命令为联邦政府使用人工智能设定了近十项原则,首要原则就是“联邦政府使用人工智能必须合法”。2023年底,拜登发布了第14110号行政命令《关于人工智能的安全、可靠和信任发展的使用》。欧盟目前没有关于政府使用人工智能的具体规定。

国内法学界也有不少专家呼吁加速推动我国的人工智能立法。《人工智能法(学者建议稿)》《人工智能示范法2.0(专家建议稿)》等人工智能立法建议稿相继涌现。学界关于人工智能立法的立法目标、立法体系、具体规则等事项展开了热烈的讨论。但这些立法建议稿均未设专章对政府应用人工智能技术予以回应。

政府应用人工智能技术需要完整的法律规则,但这并不意味着需要一部专门的立法。毕竟人工智能技术本身具有很强的共性,当政府成为应用主体的情况下,我们应当关注政府这一主体本身的特殊性及其应用所具有的特殊风险。但很显然其特殊性并不能构成制定一部专门立法强有力的理由。针对这一问题,虽然目前没有任何一个国家出台了专门的法律,但美国的华盛顿州、堪萨斯州,以及圣何塞市、波士顿市政府均于2023年开始出台了有关政府应用人工智能的政策或者指南。

因此,从长远来看,我国可以考虑在《人工智能法》中设专章对此加以规定。从短期来看,针对政府应用人工智能技术的立法应当保持灵活性,小步快跑,阶段性地回应实践中突出的问题。

2.立法主体

政府应用人工智能技术需要立法,哪些主体有权为此立法?这个问题涉及规范政府应用人工智能技术这一权力的配置。具体而言,涉及中央和地方的权力配置。

在美国,犹他州议会通过了一份法案《执法部门使用人工智能》(Law Enforcement Usage of Artificial Intelligence,S. B. 180),已于202557日生效。该法案要求执法机构制定有关执法机构使用生成式人工智能的政策。在此之前,波士顿市、西雅图市、加利福尼亚州的圣何塞市、堪萨斯州、华盛顿州均于2023年通过了有关政府应用人工智能技术的内部政策。然而,美国众议院近日通过了一项法案(HR. 1,One Big Beautiful Bill Act),第43201条(c)(1)规定:“......自本法颁布之日起10年内,任何州或政治分支机构不得执行任何规范人工智能模型、人工智能系统或自动决策系统的法律或法规。”

由此引发一个问题,在我国,制定有关政府应用人工智能技术的规则,是中央政府的权力,还是中央政府与地方政府共享的权力?如果地方可以分享这个权力,是否有必要限制在某个层级?能否“纵向到底”?

在中央层面,应当统一制定有关政府应用人工智能技术的基本规则,明确授权各级政府及其部门结合本地方本部门实际情况谨慎地选择使用人工智能技术。在地方政府层面,从目前的情况看,在数字政府、城市大脑、智慧城市等领先的省级人民政府或者市级人民政府已经在相关地方立法中细化政府应用生成式人工智能的界限、限制、职责与责任。例如,2020年杭州市通过了《杭州城市大脑赋能城市治理促进条例》,为人工智能技术的合法应用提供了法律基础,还首次明确了城市大脑的范畴、定位和功能,确保了数据的合理采集、存储、开放、利用、销毁和安全管理,有效扫除了“数据壁垒”乃至行政组织法上的部分障碍。建议与制定地方政府规章的主体保持一致,省、自治区、直辖市和设区的市、自治州的人民政府,可以在国家的基本规则之下,结合本地方实际情况,针对具体如何执行和实施国家的基本规则作出具体规定。鉴于人工智能具有集成多重底层技术的特性,具有强大的技术集成和颠覆效应,使得其有别于传统信息技术嵌入政府的路径。因此,市辖区、县和乡镇人民政府应无权制定规则。

(三)透明原则

在美国法学界,关于政府应用人工智能技术应当遵守的透明原则,已经有一些讨论。这是美国13960号行政命令《促进联邦政府使用可信的人工智能》规定的基本原则之一。西班牙的第15/2022号法案《公共部门法律制度法》新增了第23条,也引入了透明原则。

1.透明的必要性

正当程序原则要求,当政府采取影响公民权利的行动时,它必须解释原因。

人工智能的不透明性在于其决策无法解释,对于内部发生的事情没有透明度,隐藏潜在的决策错误或偏见。算法系统引发了行政法对透明度和推理性的要求与许多算法决策工具在结构上无法完全解释的事实之间的深刻冲突。

当政府使用该技术时,这个问题变得更加突出。当人工智能创建规则、做出裁决或执行法律时,这些行动所隐含的决策无法被模型工程师理解,更不用说社会大众了。如果政府部门在研究或其他决策过程的早期阶段使用人工智能,其影响可能完全不被察觉。政府中的恶意行为者可以利用这种不透明性去开发表面上看似有效的模型,但在应用中却植入了偏见和不公正的态度。就算这些问题被发现,数百万人可能已经受到算法决策的影响。最后,即使没有恶意行为者的参与,如果人工智能的决策表面上看似有效,政府决策者也可能继续依赖输出结果,简单地批准生成的工作成果模型。这大大加剧了之前的问题,因为移除人类的判断力将进一步限制人工智能监督的可能性。此外,当算法系统被采购时,通常情况下,由于专有利益的存在,又增加了一层复杂性。对于这一问题的更深层次的担忧在于,算法的不透明会导致不民主。

2.提高透明度的方法

对透明度的法律要求在执法方面也产生了难题,因为公开披露人工智能工具的详细信息可能会使其暴露在受监管方的博弈和“对抗性学习”中。因此,必须考虑的问题是,应当实现多大程度的透明,既要保障公众的知情权,又要避免受监管方的“对抗性学习”。

应当为算法工具制定具体的法律和监管机制,以有意义地实现透明度原则,并确保忠实于机构的立法授权和其他法律承诺(例如非任意性、非歧视、隐私)。针对这些关切,已经开始出现两种提高透明度的办法。一个阵营侧重于如何混合不同的解释模式,以达到期望的透明度。例如,对特定决策的不完整解释可以通过对做出该决策的工具的“系统级”解释来补充,包括数据描述、建模选择,以及对驱动模型预测的因素的一般描述。第二阵营主张简化模型,使其更具可解释性。这些措施可能采取的形式是对使用的数据特征数量设置上限,或者直接禁止特定工具(例如面部识别)或特定模型,例如强大的“深度学习”技术,这些技术可以产生更准确的预测,但往往不太具有可解释性。

为此,建议应用人工智能技术的部门通过信息公开的方式,主动公开采用了人工智能技术的政务服务、公共服务事项清单,以及这些事项所应用的大模型、算法等内容。公民申请政府部门公开其所使用的模型、算法时,除非涉及国家秘密和商业秘密,否则政府应当予以公开。

(四)责任原则

由于算法的不透明必然导致问责的困难,这是人们关于政府应用人工智能技术的一大担忧。

1.关于问责的观点

美国政府于2022年发布的第13960号行政命令《促进联邦政府使用可信的人工智能》中明确提出了“可问责”原则。政府问责办公室还发布了一个责任框架,确定了确保联邦机构负责任地使用人工智能的关键实践。

不少美国学者关注了政府应用人工智能的透明和问责问题。有学者指出,先进的机器学习输出是不可思议的,因为即使是他们自己的工程师也不一定能理解最先进的模型是如何得出给定结果的。因此,对此进行问责是几乎不可能的。另有学者积极探索如何搭建监管框架来实现问责。这些措施包括个人的、基于权利的措施(例如,激励知情人士揭发不当行为的举报人计划;赋予数据主体通知、同意、更正和删除的权利),更系统化的监督模式(例如,在算法系统部署之前,由单独的监督机构进行公共监管),以及各种其他促进问责的措施,包括“软”规则,例如影响评估。同时也有学者指出,几乎完全缺乏对行政法的任何持续或密切的考虑。这是令人担忧的,因为行政法远比宪法更能调节机构在将算法治理工具纳入政府工作时对它们的使用。

在我国,目前学术界关于政府应用人工智能技术的问责问题几乎没有讨论。现行有效的法律规定中也没有关于这一问题的规定。

2.关于问责的建议

人工智能的确带来了深刻的问责挑战。行政法必须回答的一个关键问题是:如何对这些人工智能工具进行有意义的问责,从而确保它们合法、透明和不歧视。

首先,建议在中央政府,省、自治区、直辖市及设区的市政府内部设立对政府应用人工智能技术进行监管的部门,我们可以将其称之为“政府人工智能应用监管部门”。这一部门的相关职责由国家层面的立法进行统一规定。这一部门可以是新设的,也可以是在现有的部门职责基础上增加对政府应用人工智能技术的监管职责。除了接受其他职能部门应用人工智能技术情况的报告之外,还应当对技术应用产生的结果进行监督。

其次,建议建立一个政府内部报告制度。人工智能应用监管部门应当了解同级政府的其他职能部门应用人工智能技术的情况。政府部门对人工智能技术的应用,采用的是哪种大模型技术、运用了哪些算法,应当在部署之后向同级政府的人工智能应用监管部门进行报告,并由其进行登记。应当一同报告的还有数据的采集、训练、处理情况,算力的情况以及如果通过政府采购,提供服务的主体、服务内容等相关情况。

四、行政系统内部治理的调适

人工智能可能使政府的行为变得不那么公平、透明和负责,这引发了对政府内部治理的重大需求。针对人工智能技术的特点及其目前在政府治理中的应用情况,需要对政府的内部治理进行调适,并尝试运用新型监管工具。

(一)法律规则的供给

针对政府应用人工智能技术的法律规则,应当以“软法”为先导、兼容“硬法”。

1.以“软法”为先导、兼容“硬法”

“硬法”是指有强制力效力的法律文件,是宪法、立法法等所规定的构成法律体系的法律规范。“软法”是与硬法相对应的、仅具有指导效力的规范。硬法发挥着确立权利义务责任边界的作用,软法则可以将具有探索性、临时性的内容囊括其中。

在立法条件尚未成熟,而实务又急需指导的情况下,软法能够起到“灯塔”的作用。比如,美国、英国、加拿大、澳大利亚、新西兰、丹麦、日本、韩国、新加坡和沙特阿拉伯等国家和地区都发布了面向政府和公务员的生成式人工智能的使用指南。再如,美国国家标准与技术研究院(NIST)发布《人工智能风险管理框架》(AI RMF 1.0),目标也是为设计、开发、部署或使用人工智能系统的组织提供自愿遵循的指引。

我国最高人民法院发布的《关于规范和加强人工智能司法应用的意见》包括6个部分20条内容,明确了应用人工智能需遵循的原则,如安全合法、公平公正、辅助审判、透明可信及公序良俗,并详细阐述了建设要求及具体的应用范围。

2.人工智能技术应用指南

建议借鉴国内外先进经验,由中央的政府人工智能应用监管部门发布应用指南。包括面向各级政府机关和面向行政机关工作人员的应用指南两大类:

第一类是面向各级政府机关的行为指南。内容应当包括以下几个方面:其一,明确禁止应用生成式人工智能的领域或者事项。欧盟《人工智能法》将人工智能系统划分为四个风险等级:不可接受风险、高风险、有限风险和低风险。在不可接受风险类别中,欧盟明确禁止了可能侵犯基本人权或违反欧盟价值观的应用,包括利用有害的、操纵性的潜意识技术,针对特定弱势群体(如身体或精神残疾者),在公众可进入空间使用实时、远程生物识别,社会评分系统,针对个人的预测性警务系统,以及工作场所和教育机构中的情绪识别系统。又如,英国政府发布的生成式人工智能指南也明确指出,该技术不得替代战略决策,必须尊重个人和组织的合法权益,严禁任何形式的歧视或市场不公平现象。应当借鉴他国经验,并结合我国实践情况来划定目前不适宜或者禁止生成式人工智能应用的领域或者事项。其二,针对应用的不同阶段提供针对性意见。人工智能系统的全生命周期包括计划和设计、收集处理数据、建立运用模型、验证和确认、部署和使用、操作和监控六个阶段。针对不同阶段如何更好地应用大型模型提出具体建议。例如,所有向公众的自动回复都应明确标注其来源,如“此回复由AI聊天机器人自动生成”。其三,政府应用人工智能技术应当遵守的内部程序规则,包括有关部门的内部审批程序、采购人工智能技术服务的程序以及行政机关工作人员的标注、移除有害数据的义务等。

第二类是面向行政机关工作人员的行为指南。应当包括以下内容:一是应用人工智能时应当遵守的基本原则,包括清晰地了解人工智能技术、合法合理且负责任地使用,了解如何保障安全使用,正确选择具体的工具类型等;二是应用人工智能时禁止从事的行为。比如,禁止将涉及国家秘密、商业秘密和个人隐私以及个人信息的数据输入到外部大模型中,以防止数据泄露和滥用;三是告诫行政机关工作人员要为应用人工智能技术而承担责任。对政府信息公开或政策问答中的自动化答案及机器人客服的输出内容进行严格的人工审核,确保不含有违反信息安全规定、歧视、偏见或错误的内容。

此外,指南本身应当及时更新,要根据技术发展的新特点和各地区所面临的新问题进行调整,确保公务员全面了解并熟练运用。待到时机成熟之际,应将指南升级为具有法律约束力的规范性文件或者立法,以更有效地规范政府人工智能应用,充分保障公民权利。

(二)监管沙盒策略的运用

2023年公布的《生成式人工智能服务管理暂行办法》中明确提出“对生成式人工智能服务实行包容审慎和分级分类监管”。包容审慎监管不仅仅是针对行政相对人而言,政府内部的监管也应当坚持包容审慎的策略。

1.监管沙盒策略

对欧盟、美国、新加坡等各地区和国家人工智能治理探索进行比较观察,可以发现尽管监管理念各异,但政策制定者越来越依赖于“实验为决策提供信息”的监管方法。其中,“监管沙盒”(regulatory sandbox)被反复提及,并作为一种对其他监管工具的有效补充,越来越受到广泛关注和普遍认可。监管沙盒兼具包容性和主动性。作为一种试验性监管方式,人工智能监管沙盒是回应性治理、激励性监管和合作规制主义等理论的实践表达。运用监管沙盒机制进行试验,通过真实环境和对象验证大模型,期间对开发者无意中违反数据保护法规的行为予以豁免,以此激励技术的开发与应用。

英国信息专员办公室(InformationCommissioners Office,以下简称“ICO”)建立了世界上首个处于《通用数据保护条例》(General Data Protection Regulation)管辖范围内的监管沙盒。受ICO监管沙盒的启发,挪威数据保护局于2020年推出了一个旨在促进人工智能领域的道德、隐私友好和负责任的创新的监管沙盒,用以帮助参与者开发符合数据保护法、合乎道德并尊重基本权利的产品。不仅如此,20243月,欧洲议会批准通过的全球首部《人工智能法》,更是以专章形式对人工智能监管沙盒进行了规范界定,并要求各成员国至少在国家层级建立一个人工智能监管沙盒。北京是我国首个采用监管沙盒方式推进政府人工智能应用的城市。

2.监管沙盒嵌入人工智能技术的开发运用

新一代人工智能通常划分为训练数据和投入应用两个阶段。在预训练阶段,大模型需要在大量数据上进行训练,让模型学会生成或预测数据的一般性特征。在投入应用阶段,预训练好的模型被进一步调整或微调,用于各种生成任务,如文本生成、图像生成、音乐创作、数据增强等。从目前政府的实践来看,数据预训练阶段都是在一个相对封闭、保证安全的离线环境下进行,训练周期可能会更长。因此,如何保证政府能够获取海量的训练数据,并且进行了足够的训练,或许需要专门的规则。从这个角度看,最近许多地方政府纷纷快速部署DeepSeek在政务服务中的应用,很难不令人担忧。

考虑到政府应用人工智能的特殊性,可以在人工智能训练数据和投入应用两个阶段中间嵌入一个监管沙盒阶段。由人工智能数据训练基地提供测试环境,有入盒需求的政府部门申请入盒,在进行完备性审核、方案评估之后,进行训练验证,完成训练之后,申请主体申请出盒,经沙盒专家委员会评估通过后出盒。因此,有必要通过规则对监管沙盒进行整体构建。

(三)风险规制的具体措施

风险规制要求摒弃消除所有风险的幻想,转而集中优势资源攻克关键难题,依据风险等级合理配置监管资源,明确关注焦点。通过对风险进行精准识别和分级分类,采取差异化的规制策略,旨在降低风险的同时,提升新技术应用的效能。对于生成式人工智能而言,由于新技术尚处于萌芽阶段,准确识别其风险颇具挑战。

1.针对数据安全的规制措施

为了有效降低外部攻击及数据泄露风险,可采取措施包括:一是分级分类。这是对我国数据安全治理基本思路的延续,按照数据的安全敏感程度分类,界定其使用范围和使用权限,分别采用相应的安全防范措施;贯彻数据采集和利用最小化原则,确保工作人员只能获取必要数据。二是本地化部署和私有云。政务数据库信息繁多,要采取多种措施防止数据滥用,包括通过政务专网或涉密机房运行确保“数据不出域”,对敏感信息加密处理,增强政务数据库的安全性,控制访问主体、属性、时间或地点,通过日志记录与审计监控访问行为,通过人工智能系统巡检发现风险并予以警告。三是自建脱敏数据库。部署建立大规模脱敏公共数据库,特别是针对高性能数据密集型计算、各行业智能化需求以及关乎人民生命健康的公共信息基础数据库、医疗与生物大数据等重要领域,应加速建设进程,并尽早、尽可能广泛地开放给研究机构和企业使用。四是升级政府数据共享机制。对于市级或区级统一建设且符合高标准安全要求的通用政务模型,应允许跨部门直接调取政务数据,并确保实时监测数据的实时更新。对于涉及隐私的敏感数据,采用“数据可用不可见”的方式,可以催生更多政务应用场景和事项。

2.针对幻觉或者欺骗的规制措施

在互联网时代我们已经积累了相当多的针对内容违法的治理经验,可以迁移到人工智能技术应用更为广泛的新阶段。政府工作人员不应完全依赖人工智能来完成工作,而是应不断提升自身的判断力和技术运用能力,将人工智能视为辅助工作的工具或合作伙伴。一是非涉密情况应当开启“深度思考”和“联网搜索”按钮,核查其推理路径和信息来源。尤其在政府信息公开、公众政策问答及辅助行政管理方面,采取“人工主导、AI辅助”的方式,谨慎发布结论。二是要求大模型必须严格从公开网络数据和官方政务数据库中搜集资料,明确标注信息来源,并实行多数据源交叉验证。同时,细化分类标签,加强时空信息校验机制,确保答案无时空错乱;对于本地政策法律检索和问答,则限定使用本地数据库或构建专属知识库。三是为人工智能提供高质量数据集。政府在推动政务服务智能化过程中,确保提供给大模型的数据真实准确,特别是在金融、医疗、法律等专业化程度高的领域。四是对大模型持续调优。通过架构优化、数据蒸馏技术以及自动化强化学习的应用,DeepSeek等大模型显著降低了预训练成本。然而,政府对于大模型调优仍然是不可或缺的。对于专业领域大模型,还要结合垂直领域知识库微调,以确保合法性和准确性。

3.针对算法偏见或者歧视的规制措施

根据我国《生成式人工智能服务管理暂行办法》第4条的规定,必须采取有效措施防止在提供和使用生成式人工智能服务时产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视,以维护社会主流价值观并保护政府权威形象。一是应当对数据进行预处理。这与减少和避免幻觉的措施是一致的,需强化训练数据的净化流程,屏蔽种族、性别等敏感属性,确保人工智能检索的数据无歧视性信息,并定期进行数据核查与评估。二是在算法选择或者使用中嵌入非歧视原则,或者通过调整算法来对弱势群体或者容易出现歧视的群体的相关情况予以标注或者纠正。三是对重要及敏感事项增设人工审核步骤,特别是在行政立法、重大决策及规范性文件发布时,严格审查潜在的性别、民族、地域等偏见或歧视问题。四是由独立第三方专业机构对算法的公平性、可解释性予以审查,包括对伦理问题进行审查并决定是否采用某一算法,对已经出现的偏见或者歧视进行溯源调查,避免类似问题再次出现。五是设立算法举报投诉机制。通过公众监督、媒体监督对政务服务中涉及的算法变异或者歧视现象予以及时纠正。

(四)强化对采购和部署的监督

针对不同领域、不同事项,结合各个大模型的优势和短板,政府可以选择不同的大模型。不同的选择将导致法律关系各异,所关注的风险重点亦有所不同。

一方面,政府对于选择大模型拥有自由裁量权,选择通用大模型还是垂直大模型,超级大模型还是中型大模型,都应当根据具体情况来决定。DeepSeek等国内大模型提供开源免费版,支持本地化或私有云部署,有效应对数据安全挑战,大幅降低成本,值得优先考虑。在区分政府应用场景的基础上,鼓励政府优先使用国产开源大模型,不失为利用政府财政资金支持本国技术和产业成长的策略。比如,对于一般性客服和文字咨询工作,由于可通过公开数据获取答案,开源与闭源的选择在此类场景下并非关键,开源大模型可优先采用。对于行政决策、行政执法等可能涉及敏感数据的,则可以通过开源模型的本地化部署、私有云或者选择闭源模型。

另一方面,必须强化监督机制。一是持续完善相关的政府采购、服务外包以及政府自身大型模型的开发投资建设等规范。鉴于生成式人工智能主要依赖SaaSSoftware as a Service,软件即服务)模式,相关政府采购及财政法律规范需明确资金使用规则,加强对自建大模型及购买大模型服务的监管与审计力度,以确保资金有效利用,避免盲目投资及财政资源浪费。比如在采购环节,运用区块链等技术实现全流程溯源,将采购过程、采购合同、资金拨付记录等关键数据上链。应当修订《中华人民共和国政府采购法》和《中华人民共和国政府采购法实施条例》,以适应生成式人工智能在政府采购中的应用,并对采购人工智能大模型和算力等新兴技术作出专门规定。二是通过行政协议加强管理。行政协议需明确服务期限与内容,涵盖数据安全风险防控、大模型交付条件、预训练要求及敏感词过滤等关键环节,并约定知识产权归属,如政务数据产生的成果应归属政府。三是对大模型采购后的实施效果进行动态评估。从业务能力、安全系数等多个维度进行考察,将行政机关工作人员、办事群众的投诉举报和反馈列为评估指标。应及时调整或终止低效项目,并将无法实现目标且存在重大缺陷的大模型服务供应商纳入黑名单。四是财政部门应当对政府采购算力的资金进行一定的限制,并严格审查确保政府选择成本效益高的算力资源。政府可通过土地、电力等投入共建算力基础设施,采用分时租赁方式使用算力,或直接采购华为昇腾、寒武纪等国产算力资源,亦可建立联合算力池,利用高等院校及研究机构闲置算力。

五、结语

虽然目前我国政府对人工智能技术的应用较为有限,但人工智能进一步嵌入到行政的各个领域是一个不可阻挡的趋势。如果使用管理得当,人工智能技术工具可以推动公共行政现代化,促进更高效、更准确和更公平的行政活动。如果使用管理不善,政府对人工智能工具的部署可能会掏空机构内部的人类专业知识,而几乎不会对社会产生任何裨益,反而扩大公私技术差距,增加公共决策中不良的不透明性,并加剧对政府任意行动和权力的担忧。不远的将来,人工智能体(AI Agents)将进一步深刻变革政府运作模式和组织架构,法治化路径则是保障善治实施、促进改革深化及遏制技术滥用的有效途径。每当新技术浪潮奔涌而至,无论人们是报以热切期待,还是心存疑虑,只要锚定法治的航标,定可穿越迷雾,抵达星辰大海。