当前位置:首页 > 国际合作 > 国际会议
国际会议
季卫东教授出席2024全球开发者先锋大会并参与“大模型前沿论坛”
2024年03月26日 【作者】中国法与社会研究院 预览:

【作者】中国法与社会研究院

【内容提要】


2024全球开发者先锋大会(2024 GDC)于3月23日至24日在上海举行。大会的重磅活动——“大模型前沿论坛”于3月24日上午在上海徐汇西岸举行。上海交通大学文科资深教授兼校务委员会委员、中国法与社会研究院院长、中国计算机学会(CCF)计算法学分会会长、人工智能治理与法律研究中心主任季卫东出席论坛,并作为嘉宾参与了对话环节。



作为论坛第二场嘉宾对话环节,季卫东教授与复旦大学计算机科学技术学院教授张奇,阿里云通义实验室首席安全官张荣,复旦大学研究员、博士生导师马兴军等多位专家在上海人工智能实验室治理研究中心副主任研究员王迎春的主持下,就大模型治理:技术、生态与未来”的话题展开了研讨。



在嘉宾对话中,主持人王迎春首先就大模型时代的安全问题进行了提问。季卫东教授对此谈到“如何应对大模型时代安全与发展之间的张力”是大模型治理与人工智能立法所亟需解决的问题。虽然自2023年12月12日英国司法部门允许法官使用AI撰写裁决后,人们似乎慢慢接受了大模型与人工智能的广泛应用,但其安全保障一直是社会各界所热议的话题。在2024年3月13日,欧盟议会虽然投票通过了《人工智能法案》,为人工智能系统开发者制定了全面规则,以此试图保障人工智能的安全。但对此已有150多个欧洲科技企业联名发布了公开抵制信,认为其会拖累欧洲的人工智能发展。据相关研究表明,欧盟《人工智能法案》的实施将会吞噬人工智能投资的17%,严重阻碍欧盟的数字化进程。此外,人工智能的安全虽然中文统称为“安全”,但英文里的“safety”和“security”是有严格区分的。这两词也经常同时出现在各国发布的人工智能伦理原则之中。“safety”往往强调的是一个系统、组织或个人按照自己的机制正常运转的“稳定状态”,其价值目标在于系统自身的稳定运行。因此,safety所强调的安全性可以说是大模型性能的根基之一,因为是否能维持系统自身稳定运行也是大模型性能评估的重要指标之一。而“security”所强调的是免受来自外部“蓄意或恶意”的伤害,采取必要的措施防止这样的伤害发生。所以,“公共安全”才会用public security来表示。这意味着“security”的安全是需要了解外部可能存在的潜在威胁,并采取相应的应对与防范措施来保障的。



在其他几位对话专家就人工智能的安全问题发表观点后,主持人王迎春又对“如何协调不同国家和地区在人工智能治理方面的差异,促进人工智能的国际合作”进行了提问。季卫东教授对此表示“注重沟通与程序,强调法律多元主义”是推动人工智能多元共治的重要路径。以人工智能伦理与立法为例,若将人工智能伦理视为一种普适性的实体性道德规则,将人工智能立法的目标设为制定一套全球通用、全场景适用的实体法,那么人工智能伦理与人工智能立法就不可能实现国际合作,人工智能治理的多元性也就无法得到体现。因此,有必要强调多元主体针对人工智能治理多元价值的沟通过程,区分具有地域、场景和国别差异性的人工智能道德,与针对此种差异性进行沟通协商的人工智能伦理,将人工智能伦理理解为一种针对用于评价决策合理性的道德规范出现不确定性时进行意义处理的程序性规则。此外,对于人工智能的可解释性问题,沟通与程序同样是一个有意思的切入点。例如近期在Nature出版社旗下人文社科类期刊Humanities and Social Sciences Communications上发表了一篇题为“理解可解释人工智能的困境:仪式对话框架的建议”(Understanding the dilemma of explainable artificial intelligence: a proposal for a ritual dialog framework)的研究,该研究从人机交互视角来把握与解释用户对人工智能的“信任”问题,这种信任受到用户与人工智能模型创造者之间对话的影响。因此,该项研究认为,提升XAI的用户信任需要一个仪式性对话框架(RDF)。仪式性对话框架的重要性在于,不论解释的性质如何,理解应当是目的论的。仪式性对话框架基于人工智能模型开发的社会环境,意识到人工智能系统的可信度常常基于社会对技术、权威和共享经历的集体评估。因此,仪式性对话框架不仅是一种沟通策略,而且标志着一种独特的“仪式”。仪式性对话框架在这里扮演了一种仪式性的规范,作为理解到信任之间的中介,帮助实现用户与可解释人工智能及其制造者之间的信任。