当前位置:首页 > 动态报道 > 动态新闻
动态新闻
季卫东教授出席联合国大学澳门AI研讨会
2024年04月30日 来源:中国法与社会研究院 预览:


2024年4月23日至25日,上海交通大学文科资深教授、日本研究中心主任、AI治理与法律研究中心主任季卫东在澳门参加了为今年9月联合国未来峰会而召开的预备性对话和2024年联合国大学澳门人工智能国际研讨会,作为创始成员出席了UNU AI Network启动仪式,并策划和主持了关于亚太地区生成式人工智能治理和法律的分论坛。


在预备性对话中,季卫东教授指出:怎样面对发展与安全之间的巨大张力,这是人工智能立法的核心问题;根据对这个问题的不同理解和解答,迄今为止各主要国家的制度设计可以大致分为四种模式,即欧盟的“硬法模式”、美国和日本的“软法模式”、中国的“软硬兼施法模式”以及新加坡的“技术程序法模式”。他认为,如果大模型的技术研发不仅是AI治理的对象,也可以反过来为AI治理赋能,那么科技企业就不会对人工智能立法感到忧心忡忡。实际上,如果大模型的安全研究通过技术-程序的进路能够形成测试、评估以及监控的工具箱,其中包括推广数字水印技术、开发AI验证小模型、形成AIGC打假系统、建立AI伦理管理指标体系和认证平台、编制AI安全保障网,那么监管与发展就不再是一种零和游戏,AI治理还能为AI研发开拓出新的投资机遇或者市场空间,通过错位竞争构成企业的科技蓝海。换言之,只有在语言大模型和多模态大模型的性能提升与安全度提升形成某种正比关系之际,只有在监管转变为程序本位和技术本位之际,各国以及全球才有可能真正进入所谓“人工智能治理的立法时刻”。


季卫东教授策划了关于亚太地区生成式人工智能治理和法律的分论坛,邀请中国澳门大学高等研究院院长於兴中、日本一桥大学法学院和社会数据科学研究院教授寺田麻佑、新加坡人工智能国际研究院创始院长翁家良、美国西北大学法律与科学创新研究中心主任丹尼尔•林纳担任演讲嘉宾,并且邀请华东师范大学人工智能金融研究院院长邵怡蕾教授担任联袂主席、该校政治与国际关系学院院长吴冠军担任评议嘉宾。在分论坛开始之际,季卫东教授阐述了分论坛策划的宗旨。他指出:非常有趣而又耐人寻味的对照是,当欧洲科技企业担心偏重监管的欧盟《人工智能法》势必吞噬占投资17%的AI产业发展之际,《北京AI安全国际共识》却呼吁各国政府和企业把AI研发预算的三分之一投到安全保障领域,似乎更偏向于监管方面。“33% vs. 17%”的成本效益竞争,仿佛构成规则制定话语权的一个崭新的制高点”。


在研讨会期间,季卫东教授还接受视频采访,介绍了上海交通大学在五天前成立的人工智能学院以及在五年前成立的人工智能研究院以及AI治理与法律研究中心,还介绍了中国计算机学会计算法学分会的活动,表示这些机构都将会为UNU AI Network做出各自的贡献。他还希望这个人工智能国际合作网络能够促进不同国家、不同利益团体之间的沟通和相互理解,为全球数字契约奠定基础,并成为人工智能治理的助推者。


澳门之行结束后,季卫东教授还就中美两国关于人工智能的政府间对话问题接受了《潮新闻》记者的采访,进一步阐述了自己对人工智能治理国际合作的主张。





附:季卫东访谈:中美间将举行人工智能政府间对话首次会议, 会谈些什么?

潮新闻:布林肯访华期间,中美达成了五大共识,其中有一条是将举行中美人工智能政府间对话首次会议。在您看来,为什么两国在这一时刻认识到了在人工智能领域洽谈的重要性?

季卫东:中美两国在人工智能研发方面领跑世界,与第三位及其他国家之间的差距越拉越大,正在导致世界经济重新洗牌。

目前人工智能又处于爆发性更新迭代阶段,安全与发展之间的张力也变得非常大,正在引发激烈的争论。迄今为止,美国、中国以及日本都试图在安全与发展之间达成适当平衡,因而在人工智能治理方面采取的是所谓“软法”模式。但是,欧洲议会在今年三月通过人工智能法,确立了安全优先于发展的价值排序,要求成员国进一步加强对科技前沿拓展和应用场景的监管,采取的是“硬法”模式。

在这样的背景下,中国与美国都面临如何就人工智能的未来格局形成国际共识这样一个重大课题或挑战。

非常有趣的是,几乎与欧盟通过《人工智能法》的同时,三十几位海内外技术专家和企业领袖在中国签署了《北京AI安全国际共识》,为人工智能研发划出了几条明确的红线,并试图以这些原则为基础形成国际合作机制。

北京共识的主要内容包括确保人类对AI系统复制和迭代的控制、反对大规模自动化武器的设计、导入国家注册制以便按照全球对齐的要求加强监管和进行国际审计、防止最危险技术的扩散、开发全面的治理方法和技术、建立更强大的全球安全保障网络。非常有趣而又耐人寻味的对照是,这个共识呼吁各国政府和企业把AI研发预算的三分之一投到安全保障领域,似乎开始更偏向于监管方面。

记得欧洲议会在去年6月底通过《人工智能法》谈判授权草案之后,曾有包括西门子和空客在内的150多家科技企业联名发布了公开抵制信,指出法案规定过于严苛的监管机制会大幅度压缩科技创新空间,吞噬17%的AI研发投资,延误欧盟数字经济的发展。现在《北京AI安全国际共识》却要求科技企业把研发投资的33%用于AI监管方面。“33% vs. 17%”的成本效益竞争,仿佛构成规则制定话语权的一个崭新的制高点。

美国在2020年制定的《国家人工智能倡议法》,基本目的是通过统筹协调来加速人工智能的研发和应用、促进经济繁荣和国家安全、审视AI治理的路径、平衡个体权利与科技创新之间的关系,属于典型的软法模式。2022年10月白宫科技政策办公室发布的《AI权利法案蓝图》、2023年1月国家标准和技术研究机构发布的AI风险管理框架等,也都是原则和政策的宣示,不具有任何法律约束力。在大模型引起全球舆情高度关注安全问题的背景下,拜登政府在2023年7月21日与人工智能领域的七家头部企业达成关于AI研发和应用的安全自愿承诺,仍然不具有任何法律约束力。

但是,参议员伊薇特•克拉克等提出的《2019年算法问责法案》及其2022年、2023年的更新版本则具有明显的硬法化倾向。众议院能源和商业委员会在2023年7月通过的《人工智能问责法案》则给政府施压,希望在2025年之后采取实质性问责措施来防范AI风险。显然,美国也存在着硬法化的趋势。

由此可见,在人工智能领域,中美两国围绕何去何从的问题进行对话的必要性和迫切性已经显现,而进行合作的条件也已经臻于成熟。其实中国与美国在人工智能领域的互补性大于竞争性。

美国在算法开发和计算能力具有明显的优势,中国则在数据的规模和应用场景的丰富性方面胜出,如果双方选择联手而不是脱钩,既可以避免人工智能技术无序扩散带来的风险,也可以避免因为缺乏互信而滑入“零和博弈”的陷阱,显然有利于在发展与安全方面达成更好的平衡。在2023年全球人工智能安全峰会上中美两国都签署了《布莱切利宣言》,承诺共同推动人工智能的安全和伦理发展,这是双方在形成国际共识方面开展合作的良好开端。在此延长线上,中美启动关于人工智能的政府间对话应该是题中应有之意。

潮新闻:在您看来,两国的首次会谈将讨论哪些议题?

季卫东:2024年9月下旬,联合国将召开未来峰会,试图以多边协调的方法来解决人类社会共同面对的问题,实现可持续发展的目标,为此还将推出一个注重行动的《未来契约》。在2022年11月底开启的生成式人工时代,所谓霍布斯秩序问题似乎已经由“所有人对所有人的战争”,转化为“所有模型对所有模型的战争”,为此我们需要缔结一种新的社会契约,或者说“全球数字契约”。在我看来,这正是《未来契约》的内在含义。

此时此刻,人类社会正面临这样的根本性选择:为了重构秩序而承认“算法利维坦”这种必要之恶?推行“数字立宪主义”或者“数字法”以保障个人的自由和权利?通过各种“数字中间集团”来达成多元化权力之间的制衡?无论如何,在联合国未来峰会箭在弦上之际,中美两国需要就国际基本共识进行协调。所以,在9月的联合国未来峰会缔结什么样的数字社会契约,应该是两国首次会谈不得不面对的首要议题。

鉴于“人工智能安全”已经成为新的关键词,中美政府间对话当然会聚焦安全议题,包括网络安全、数据安全、自动化技术安全等等。

在基础设施和重要应用场景中如何确保人工智能的系统安全(safety)和社会安全(security),美国可能会坚持《科学:无尽的前沿》确立的“技术中立性”原则,中国可能会强调“以人为本”理念。

在安全方面,两国政府还势必涉及作为大模型基础理论的“对齐”问题,必须赶在人工智能技术失控之前找到适当的解决方案,以确保人工智能系统的目标与人类价值判断保持一致,确保人类对人工智能系统复制和迭代的控制。为此,围绕对齐的价值标准(例如个人的自由权利与社会的公共善、隐私与道德、平等与分类化、普遍性与特殊性等等)也会进行讨论。因此,AI安全也必然成为两国首次会谈的重大议题。

当人工智能治理进入立法时刻之后,法律规则与技术标准、实体与程序之间的关系也会成为讨论的对象。特别是就人工智能治理的规范、标准以及程序如何形成国际共识,如何导入算法备案制或大模型国家注册制,如何加强监管和国际审计,有大量机制设计和实施的课题有待解决,需要中美两国共同发挥引领作用。

还有一个具体而重要的议题,就是军事领域的人工智能应用很容易导致误判和意外冲突,中美两国政府有可能会重点讨论如何制定规范以防患于未然。特别是限制大规模自动化武器系统的研发以及在核指挥控制系统中的人工智能应用,防止最危险技术的扩散,需要划出明确的红线。

潮新闻: 此前,中国在联合国支持了美国提出的人工智能决议。而OpenAI等公司也时不时会遭到质疑,或者被叫到国会质询。您如何评价美国近期在人工智能管控方面的进展?在您看来,中美两国目前在哪些方面(比如算力、伦理价值等)存在分歧?应该如何解决?

季卫东:美国不仅把人工智能理解为一场新的科技革命和产业革命,而且高度重视人工智能对国家安全的影响及其在确保美国领导地位方面的关键性意义。

2023年,拜登政府签署的《人工智能的安全、安保和可信赖的开发与使用》总统行政令,标志着美国将人工智能与国家安全更紧密地连接在一起,并进一步加强对人工智能技术的管控。从对外的管控来看,美国近期特别注重管控人工智能技术给生物安全、网络安全、国防安全、关键基础设施安全所带来的风险,试图与盟友一道在建立人工智能的全球技术标准和监管体系中发挥主导作用。在这里,把“价值同盟”与“技术同盟”相叠加的构想若隐若现。美国乔治城大学麦考特公共政策学院的亚历克斯•·恩格勒(Alex Engler)教授已经指出美国和欧盟在人工智能监管方面开始趋于一致。

在实践中,美国-欧盟贸易和技术委员会(TTC)于2022 年 12 月达成第三次部长级会议联合声明,指出美欧将在共同价值观的指导下,形成人工智能相关的国际标准机构协作方法,共同推进国际标准制定工作。此外,认识到隐私对推动负责任人工智能发展的重要性,美国和欧盟将开展一项试点项目,评估在适用的数据保护规则下的隐私增强技术和合成数据在医疗卫生领域的应用。

但是,从对内的管控来看,美国迄今为止的制度设计特征呈现出职能分散与因事制宜的特点,这与欧盟的统一化、综合性的人工智能管控体系形成了鲜明的对照,也与中国算法备案、算法检查、算法问责“三位一体”的人工智能管控体系大异其趣。

仅就发展趋势而言,如果持一种谨慎乐观的态度,那么在人工智能管控的“软硬兼施”模式上,中美两国也许可以找到不少类似点或者达成共识的基础。在这里,目前两国之间的最大分歧是,中国把人工智能视为弯道超车、经济结构升级的机遇,而美国试图通过人工智能维护其全球领导地位,特别担忧中国在人工智能等关键技术领域的快速发展构成挑战。

为此,美国在先进的芯片制造技术、5G等领域对中国科技企业采取了一系列限制措施,其结果很可能刺激中国的民族主义情绪,逆转全球化进程,进而以人工智能的制裁与反制裁的博弈为契机形成信息和经济的“两个半球”格局。另外,在人工智能管控的思路上也的确可以看到某种价值分歧,例如中国强调“以人为本”的理念,而美国倡导“负责任的人工智能”。在隐私和知识产权保护方面,也存在这样或那样的差异。

为了解决中美两国之间的分歧,首先应该促进围绕人工智能风险的沟通和相互理解,克服双方在认知上的各自盲点,特别是要在包括政府、企业、专业团体、国际组织等在内的多元化主体之间进行充分的论证性讨论和交流。清华大学战略与安全研究中心与美国布鲁金斯学会已经开展多轮有关人工智能与国际安全治理的“二轨对话”,这样的对话多多益善。

另外,地缘政治因素不应影响到两国在教育和研究方面的合作,大学的人才培养和交流应该坚持自由包容的精神。美国斯坦福大学发布的《2022年人工智能指数》显示,在2010年到2021年期间,中美在人工智能出版物方面的合作数量增长了5倍,位居全球榜首,取得了丰富的成果,为科技创新和突破做出了重大贡献。显然这样的合作不仅是互惠共赢的,而且有利于人类科技和文明的进步。

潮新闻:您认为,中美两国在人工智能领域的洽谈与合作对全世界而言有怎样的重要意义?两国能否由点及面,推进其他领域的合作?

季卫东:在人工智能领域中美开展对话与合作,进而形成科技创新能力和应用市场规模之间的互补关系,可以发挥数字经济双引擎的作用,显然有利于人类社会的可持续发展以及世界秩序的维护。

两国达成共识的最佳切入点是技术标准的统一。如果占全球第一、第二位的两大经济体和人工智能研发重镇联手确立人工智能的技术标准,显然有利于系统之间的兼容和互操作性,有利于拓展科技创新空间,有利于提高数字经济的效益。

在此基础上,还可以进一步就人工智能法的制定和实施进行协商,寻找发展与安全之间的适当平衡点,寻找软法与硬法之间的更佳组合方式。然后再围绕人工智能的安全对齐问题探讨各种价值观的最大公约数和具有普遍意义的道德原则。相信围绕人工智能可信度的探讨也有助于增进人类相互可信度。

人工智能的飞速发展实际上也在发挥一种媒介作用,不断突破各种既有疆界,渗透到生活世界的每一个角落,成为真正的全球性议题。不言而喻,全球议题的有效解决需要全球合作。同样性质的课题还有气候变化、粮食安全以及包括疫情防控在内的公共卫生和健康,都需要全球合作,其前提是中美两国应该摒弃成见进行开诚布公的对话和协调。在这个意义上也可以说,人工智能治理方式的创新很有可能通往全球治理方式的创新。

(潮新闻 记者 徐军, 2024-04-29 17:21发布)