当前位置:首页 > 首页管理 > 法律与社会讲堂
法律与社会讲堂
数字法治三人谈|季卫东、马长山、龙卫球:人工智能的价值观对齐、伦理与个人信息保护
2023年07月17日 【作者】“海上法学院”微信公众号 预览:


近日,“数字法治三十人论坛(2023年夏季)”在上海政法学院中国-上合基地举行,此次论坛聚焦“人工智能的法律问题”。上海交通大学凯原法学院季卫东教授、华东政法大学数字法治研究院马长山教授、北京航空航天大学法学院龙卫球教授为论坛作主旨演讲。“海上法学院”获授权摘编三位学者的主旨演讲,为您呈现他们对数字化发展中法治问题的思考。


嘉宾介绍:


季卫东

上海交通大学文科资深教授、博导、中国法与社会研究院院长、人工智能治理与法律研究中心主任,中国计算机学会计算法学分会会长,中国法学会法学教育研究会副会长。

马长山

华东政法大学数字法治研究院院长、教授、博导,《华东政法大学学报》主编,教育部重点领域教学资源“人工智能伦理知识领域专家协作组”专家,中国法理学研究会副会长。

龙卫球

北京航空航天大学法学院院长、教授、博导,中国网络与信息法学研究会副会长,中国民法学研究会常务理事,中国空间法学会常务理事,中国行为法学会副会长。


人工智能与人类价值取向如何对齐

季卫东

去年1130Open AI正式发布ChatGPT以后引起了关注,其强大的功能甚至让程序员都担心失业,也带来了很多新问题。例如:生成式人工智能若有自主意识,就有可能会失控,是不是要开发或者是进一步加强风险防范?还未达到人类的智慧高度,仅仅语言大模型本身就改变了人类文明的操作系统,带来了人机关系的失衡问题。

 

还有一个最大的问题:信息失真。人工智能有时会像法官一样一本正经地回答,看似有很多根据,但实际上虚假信息问题非常严重。当人类的所有数据素材都被人工智能学习用尽,未来我们所面对的很多内容都会是人工智能生成的,其真实性就需要打个问号。

 

法律上也会遇到许多问题,区块链导致的个人自主权的强化与大模型的赋能结合起来,这一点就会变得更加突出。

 

中国现在有70多个大模型,其中有30多个模型非常活跃。美国也同样有大量的模型,这些模型对国家治理形成了非常明显的挑战,怎么应对处理?Open AI研究人员在2012年的时候提出了价值对齐的问题,若担心人工智能会失控,就一定要让人工智能价值取向和人类价值取向保持一致。但世界文明国家价值取向本就不同,怎么对齐,按照什么标准对齐,如果对齐不了呢?

 

最近美国三名研究者发表的一篇文章非常有意思,摆脱罗尔斯式“无知之幕”对保障AI算法公正和价值对齐的意义。他们做了一些实验,比如把人工智能助手分配到不同角色当中去,让它进行选择。当我们把所有的信息都告诉人工智能决策系统,这个时候它的决定偏向效益。但如果按照罗尔斯“无知之幕”的构想,当把所有信息掩盖起来,让人工智能做出决策的时候,它的决策更偏向公正而不是效益,所以“无知之幕”的概念以及罗尔斯的理论,对于人工智能治理和价值对齐非常有参考价值。尤其在国际价值不相同的情况下,实质性的标准难以统一,通过这样一种纯粹程序性方式来就道德规范和正义原则达成基本共识,或是一种合适的解决方法。

 

 

“以人为本”:AI法治伦理的首要原则

马长山

人工智能法治伦理的内涵丰富、领域宽阔,但首要原则应该是“以人为本”。

 

首先,反对“技术至上”论。现在有一种说法,认为技术有自己独立的逻辑,可以解决人解决不了的问题,就是一种“技术救世”主义。它反对人类中心主义,从人工智能发展的角度来讲,这将会引发人类灾难。具体来说,一切由技术决定,技术会成为控制人类的一种方式,将会带来对人性的严重侵蚀。目前,国际社会的共识是,技术的发展一定要服务于人,要增进人类的福祉,而不是变成一个更有效地控制人类的手段。如果造成了数字权力化、权力数字化,这样的社会是难以接受的。数字技术发展应该让所有人受惠,至少公平地分享数字红利,实现真正的“共建共治共享”,过度强调技术至上并不是我们的目标。

 

其次,遵循技术向善原则。技术发展应尊重人格、符合人性、可信向善,致力于科技普惠、扶持弱者、安全负责。我们常常会遇到一些“流氓”软件,如不断变换虚拟号码的骚扰电话、广告弹窗关不掉或者点击显示关闭的“×”后恰好是打开、回复“退订”恰好是“订阅”等等;再如“抢票软件”,一秒能抢100次,人再快的手,一秒也抢不过三次,这就等于一秒在你前面有97个人插队。拓展开来说,疫情期间随意赋红码,也是违反技术向善要求的。

 

再次,技术发展应合理合规。现行法律法规、规章、规范性文件对于数据信息的概念及其确权,并不十分明朗。《数据安全法》对“数据”作了界定,但是现行法律对“信息”没有任何界定,只是界定了“个人信息”。事实上,数据和信息的关系是实践问题,不是理论问题。数据和信息在不同的应用场景下也会发生转换。比如住店,需要身份证,提供手机号甚至有些酒店需要刷脸,都是个人敏感信息,录入后变成企业数据。如果文旅局要求酒店提供数据用以调研旅游市场情况,数据就变成信息。在什么情况下怎么利用,还有相关政府部门之间相互分享等问题都需要有章可循,做到合理合规。

 

 

人工智能发展中的个人信息保护

龙卫球

人工智能到了超级智能的阶段,带来很多想不到的风险,比如超级智能对数据有更大的需求。这些数据哪来的?如果在没有充分规范的情况下抓取数据,不可避免会侵犯别人的数据权益。

 

尽管现在的研发者声称,抓取的是公开数据,但其实部分抓取数据中已经包含了大量的个人信息,甚至是可识别的敏感个人信息,比如说姓名、电话号码,且通常没有提前获得数据权利人的同意。

 

个人信息泄露未经同意抓取使用的风险已有一些案例,今年3月三星DS部门发现在使用ChatGPT以后发生了20起泄露机密的事件。意大利也在3月发现了ChatGPT平台用户对话数据和付款服务支付信息丢失的情况。美国报道苹果公司也发生类似问题,现已限制在公司内使用ChatGPT5月,美国国会研究处发表了深层次人工智能和数据报告,重点提到数据和个人信息保护。6月,针对Open AI的第一起集团诉讼起诉至美国加州法庭,指控Open AI在开发营销运营超级智能产品的时候,非法收集使用数以亿计的互联网用户信息,其中包括儿童信息。

 

6月,欧洲议会全体表决通过了《人工智能法案》授权草案,这可能会是第一部人工智能法。其中对ChatGPT增加了更多的安全控制措施,基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。

 

我国如何应对?今年初,网信办发布了《互联网信息服务深度合成管理规定(征求意见稿)》,其中对个人信息保护提出要求,如果用生成式智能AI提供服务,使用个人信息需要征求个人同意。410日我国支付清算协会表示ChatGPT工具引起各方广泛关注,已有部分企业员工使用这一工具开展工作,为有效应对风险、保护客户隐私、维护数据安全、提升支付清算行业数据安全管理水平,支付清算协会根据《网络安全法》《数据安全法》等法律倡议慎用ChatGPT。目前而言,我国立法严重滞后,应当从法律层面立即着手修订增加规范,如果不制定人工智能法,也应制定相关条例,或者可以在其他法律中加入这一部分内容。

 

 

感谢微信公众号“海上法学院”授权转载!