共同进化式人工智能与计算法学的新维度
——在CCF计算法学分会第三届年会开幕式上的致辞
季卫东
尊敬的郭雷院士、刘建亚校长、臧根林秘书长、各位嘉宾和专家、CCF计算法学分会各位执行委员:
2024年诺贝尔物理学奖、化学奖都授予人工智能技术及其科学应用的发现和发明,引起一片惊愕,也让所有人都更清楚地认识到:我们正处于人工智能的数字大革命之中。就在这样的背景下,我们迎来CCF计算法学分会成立三周年,第三届年会在今天正式开幕,让我们对未来三年的前景充满期待和紧张。
本届年会的主题聚焦“计算法学与国家治理现代化”,由郭雷院士、时建中副校长、左卫民院长、栗峥副校长做主旨报告,还设有两场主题报告和四个分论坛,内容十分丰富。在这里,我仅代表CCF计算法学分会,还有所属的上海交通大学中国法与社会研究院,向主办单位中国计算机学会、作为共同承办单位的山东大学威海校区数据科学研究院和法学院以及山东系统与计算法学研究中心致敬和致谢,并对各个协办单位以及光临大会的所有嘉宾和同仁表示热烈的欢迎!当然还要特别对负责承办具体工作的王芳教授及其团队所付出的辛劳表达由衷的谢意!
所谓国家治理的现代化,包括两个基本方面。一个是通过法治实现国家权力的理性化,并提高治理的效率。另一个是通过人本主义扩大个体的自由度,提高治理的公正。人工智能可以大幅度提高效率,这是毫无疑义的。但是,人工智能会不会使世界进入后人类(Post Human)或者后人本主义的时代?这还是个问题,正在引发争论。与此相关,尤瓦尔•赫拉利在《未来简史》中提到一个重要的概念“Homo Deus(神人)”,在我国似乎还没有得到充分的重视。后人类、跨人类、神人或者超人会不会形成对人类及其个体的碾压,或许将构成对现代国家治理体制的一种严峻挑战。
这两、三年间,大模型飞速迭代,生成式人工智能正在影响到日常生活的方方面面。通过人机共存和人机对话形成的这种生成式话语秩序,正在使每个人都生活在作为集合的相互作用之中。“我”的观念势必相对化,“我们”将越来越成为生活世界的主语。换句话说,在生成式人工智能强势崛起的当下,哲学和法学的思维方式从个体的“我”转向集体的“我们”的趋势实际上变得更加难以阻挡了。尽管计算机系统用户的基本单位依然以个人为单位,还是按一人一账户以及自律式个体自由的原则来进行认证和管理数据的,但是,在社交网络中一度膨胀化的自我,在进入生成式人工智能阶段之后,日益融合到大模型之中,日益融合到相互作用的集合之中,转化为话语秩序中的“我们”而重新呈现出来。从个体本位到集体本位,这是计算法学以及数字法治都不得不面对的社会范式和研究范式的根本性变化。
另外,传统意义上的司法判断在很大程度上基于经验法则。因此,法官与律师以及当事人之间不得不进行一场又一场“不完全信息博弈”。鉴于时间和信息的有限性,法官必须把案件的具体情况抽象化,变成简单的规则来进行处理。只有在少数简易案件的场合,才存在事实与法律都很明确清晰的“完全信息博弈”。但是,具有机器学习能力的人工智能,是在庞大的数据库中,通过全数据集来选择最佳解决方案。因此,智慧司法的本质是把所有的不完全信息博弈都转化为完全信息博弈来处理,从而可以对复杂的具体情况进行复杂的应对。当然,人工智能一直存在所谓框架问题和符号接地问题的局限,也很难充分反映人类的直觉、常识、默示知识以及价值判断。但是,语言大模型和多模态大模型把包涵直觉、常识、默示知识以及价值判断的所有行踪数据,还有图片、声音、影像等所有表达数据,统统都纳入学习和提炼模型的范围之内。这就可以在相当程度上化解了所谓框架问题和符号接地问题。何况人型机器人还可以通过给人工智能设定身体性或物理界限,通过限定信息处理范围的方式增加人工智能的知识弹性,这就存在超越深度学习、不必完全以数据规模来定胜负的可能性。人工智能技术如此神速的进步,意味着智慧法院的审判方式也将实现从量变到质变的飞跃。
在很长一段时期内,人工智能的确取决于算法,基本上一直属于计算的世界。因此我们在考虑法律与人工智能之间关系时,只谈计算法学,只谈算法的可解释性和算法公正就基本上可以万事大吉了。在这个意义上,计算法学与人工智能治理的关系,可以用XAI(可解释人工智能)来一言以蔽之。但是,在当今的形势下生成式人工智能快速迭代、人机共存和人机对话成为社会的常态,计算法学还必须导入一个新的关键词:CAI——Co-evolutional AI,也就是人机共同进化式人工智能。这意味着人工智能正在迈进新的阶段,人工智能治理也势必随之迈进新的阶段。很可能会出现某种人类无法理解的智能。当人工智能可以自我撰写代码、修改程序,那么大数据中固有的黑箱性也必然会在生成式人工智能中进一步强化,甚至诱发人工智能失控的风险以及社会不安。
鉴于人工智能发展的这种新局面,AI安全已然成为当今世界关注的一个焦点。从AI安全的视角来考察,究竟如何正确对待人工智能立法,必将成为今后三到五年期间人工智能领域和计算法学界的一个中心课题。今年春天在澳门召开联合国大学AI国际研讨会上,我的发言分析了人工智能立法的四种模式,即欧盟的硬法模式、美国和日本的软法模式、中国的软硬兼施模式以及新加坡的程序技术模式,特别强调立法者必须在人工智能研发与人工智能安全之间保持适当的平衡。我认为,如果大模型的技术研发不仅是AI治理的对象,也可以反过来为AI治理赋能,那么科技企业就不会对人工智能立法感到忧心忡忡。实际上,如果大模型的安全研究通过技术-程序的进路能够形成测试、评估以及监控的工具箱,其中包括推广数字水印技术、开发AI验证小模型、形成AIGC打假系统、建立AI伦理管理指标体系和认证平台、编制AI安全保障网,那么监管与发展就不再是一种零和游戏,AI治理还能为AI研发开拓出新的投资机遇或者市场空间,通过错位竞争构成企业的科技蓝海。站在这个立场上来看,CCF计算法学分会应该积极参与关于人工智能立法的讨论,以拓展计算法学研究的空间,扩大本学术机构的社会影响力。
我相信,CCF计算法学分会第三届年会将围绕上述但不限于这些问题进行广泛而深入的探讨,并进一步促进围绕人工智能与法律的跨学科、跨界别的对话和沟通,必将以人工智能为杠杆推动法治的范式创新。预祝第三届CCF计算法学分会年会取得圆满成功!