当前位置:首页 > 成果展示 > 成果展示
成果展示
埃琳娜·埃斯波西托著,翁壮壮译《人工沟通与法:算法如何生产社会智能》
2023年07月31日 【作者】中国法与社会研究院 预览:


《人工沟通与法:算法如何生产社会智能》

埃琳娜·埃斯波西托著翁壮壮译



内容简介

 

本书是探讨现代社会的算法如何生产社会智能的一部著作。埃琳娜·埃斯波西托(Elena Esposito)教授在本书中沿袭其导师尼可拉斯·卢曼(Niklas Luhmann)的“社会沟通”理论,指出机器学习等数字技术不是人工智能,而是“人工沟通”。在算法和人类智能之间进行这种类比是一种误导。如果机器对社会智能有贡献,那不是因为它们学会了如何像人类一样思考,而是因为人类学会了如何与它们进行沟通。“人工沟通”意味着人类的沟通伙伴可能不是人类,而是算法。根据算法在社会生活的不同领域中的使用,本书深入探索了人类与算法互动、在线网络列表的激增、数字本文分析中的可视化、算法个性化与数字画像、数字记忆与被遗忘权、遗忘图像、算法预测、法律AI的透明度与解释等数字社会的前沿问题。相信本书在帮助中国读者准确了解当代数字社会的同时,也能促进我们对数字法学与计算法学领域中前沿问题的深入思考。

 


作者简介



埃琳娜•埃斯波西托(Elena Esposito),社会学博士,德国比勒费尔德大学和意大利博洛尼亚大学的社会学教授,研究领域为社会理论、金融社会学与数字社会学,是当代德国社会系统论的代表性学者。其最初在博洛尼亚大学跟随安伯托·艾可(Umberto Eco)学习哲学,后来在比勒菲尔德大学跟随尼可拉斯·卢曼(Niklas Luhmann)学习社会学并获得社会学博士学位。其研究项目“预测的未来:保险、医学和警务领域算法预测的社会后果”得到了欧洲研究委员会五年期高级资助的支持。



译者简介:翁壮壮,上海交通大学凯原法学院博士研究生,上海交通大学中国法与社会研究院研究助理。曾在《交大法学》《人权研究》《法律方法》等刊物上发表论文,研究领域为法律系统论、法律方法论、数字社会学。



原书导言

 

在处理越来越多的事情方面,与深度学习和大数据协同工作的算法越来越擅长做越来越多的事情:它们可以快速而准确地生成信息,并且正在学习比人类更安全可靠地驾驶汽车。它们可以回答我们的问题、进行对话、创作音乐和阅读书籍。他们甚至可以写出有趣的、恰当的,而且(如果需要的话)幽默的文本。

 

然而,在观察这一进展时,我们很少能完全放松——这不仅是因为我们担心偏差、错误、隐私威胁或公司和政府的恶意使用。实际上,算法变得越好,我们的不适感就越大。《纽约客》最近的一篇文章描述了一位记者使用“智能撰写”的体验,“智能撰写”是谷歌邮箱的一项功能,可在您输入句子时为其提示结尾。该算法如此恰当、中肯地完成了记者的电子邮件,并符合他的风格,以致于记者发现自己从机器中不仅学习了他会写的内容,而且还学习了他应该写的(并且没有想到的)内容,或者想写的内容。他一点也不喜欢这种感觉。

 

这种体验在我们与所谓的智能机器的互动中极为常见,被称为“恐怖谷”:  在机器看起来与人类或观察者自身过于相似的情况下,人类会出现一种令其毛骨悚然的不适感。我们希望机器支持自己的思想和行为,但是当我们发现机器自身似乎有思想和行为时,我们会感到不舒服。今天,我们每个人都习惯于与自动化程序(机器人)进行沟通,而很少关注它们的本质——当我们在线购买机票时,当我们在网络上寻求帮助时,当我们在玩电子游戏时,以及在许多其他场合。然而,当我们反思或辩论算法的主题时,我们仍然会发现自己在讨论诸如机器通过图灵测试的可能性、 技术“奇点”的到来或远超人类能力的超级智能的创造等话题。虽然我们将自己与机器做比较,却并不喜欢机器获胜。在我们努力打造智能机器的过程中,我们不仅想知道我们是否成功了,而且还想知道机器是否变得太聪明了。

 

但这真的是我们需要担心的吗?虽然我们可能会对与我们太相似的机器产生一种怪异的感觉,但我们是否应该认为,算法的基本风险在于它们可能会与人类智能进行比较或竞争?这本书的出发点是假设算法性能和人类智能之间的类比不仅没有必要,而且还具有误导性——即使它们背后的推理似乎是合理的。毕竟,今天很多算法似乎都能够进行“思考”和沟通。在我们所知的沟通中,我们的合作伙伴一直是人,而人则被赋予了智慧。如果我们的对话者是一种算法,我们会冲动地将人类的特征归因于“他”或“她”。如果机器可以自主沟通,人们会认为,“它也一定是智能的”,尽管可能与人类不同。在这个类比的基础上,研究集中在人类智能和机器性能之间的相似和差异之处,观察它们的极限并进行比较。但是继续遵循这个类比真的可取吗?

 

笔者认为,我们可以与机器沟通并不意味着需要解释机器的智能(这种解释可能还需要解释“自然”智能的奥秘),但最重要的是,沟通正在发生变化。本书的研究对象并非智能而是沟通,智能至今并且仍然还是一个谜,但我们可以观察到沟通,并且我们已经对沟通了解甚多。例如,我们知道几个世纪以来,随着人类社会的发展,沟通是如何变化的。我们知道,沟通已经从共享物理空间的各方之间的简单互动,转变为更灵活和更具包容性的形式,这也允许在越来越匿名和非个人化的环境中,与以前无法访问的遥远时空中的伙伴进行沟通。

 

在沟通的发展过程中,人类的角色发生了深刻的变化。如今已经不需要所沟通的伙伴在场;无需知道他们是谁,以及他们为什么沟通,也无需知道他们的意思并加以考虑。我们可以阅读和理解洗碗机的说明书,而不知道是谁写的,并且也可以不认同作者的观点;我们解释一件艺术作品,可以不受艺术家观点和意图的约束。大多数信息不需要存储在某人的脑海中(没有人会时刻牢记《民法典》),在所有虚构的情况下,我们认同小说和电影中的人物,知道他们并非真实存在,而且他们不是他们所进行的沟通的作者。如果不是在理论层面,而是在实践中,成功的沟通是在参与者的思想之间精确共享相同内容的想法,在许多世纪以来一直是不现实的。在大多数情况下,告知者和接收者彼此不认识,彼此不知道对方的观点、背景或约束条件,也不需要这样做。相反,这种透明度的缺乏还带来了无法想象的自由度和抽象度。

 

沟通形式的改变并不新鲜,也不是一个谜。相反,问题在于识别和理解新旧形式之间的差异和连续性。如今,来自参与者认知过程的沟通自主性已经更进一步。我们需要一个沟通概念,它可以考虑到沟通伙伴或许不是人类而是算法的可能性。今天已经观察到的结果是,在这种情况下,我们掌握了我们经常无法重建其发展或起源的信息,但这并不是恣意的。算法自主生成的信息根本不是随机的,而是完全受控的——但其不受人类思维过程的控制。

 

我们如何控制这种控制,这对我们来说也是难以理解的吗?在笔者看来,这是当今机器学习技术和大数据的使用给我们带来的真正挑战。本书的章节详细阐述了这一观点,同时研究了算法在社会生活不同领域里的使用。如果我们将算法的运作视为沟通而不是智能,我们将看到什么?将看不到什么?或者将看到什么不同的东西?

 

本书首先讨论了人工智能的经典隐喻以及神经网络等衍生工具的充分性,以分析数字技术和网络的最新发展。最新一代的算法以各种形式引起了大数据和相关项目的使用,却并没有试图人为地再现人类智能的过程。笔者认为,这既不是放弃,也不是弱点,而是它们在信息处理和与用户互动能力方面无与伦比的效率基础。机器第一次能够产生人类思维从未考虑过的信息,并充当有趣和有能力的沟通伙伴——不是因为它们变得聪明了,相反,这是因为它们不再尝试这样做了。驱动算法的过程与人类思维的过程完全不同,事实上,没有人类思维或人类思维的组合可以再现它们,更不用说理解算法的决策过程了。然而,人类的智慧仍然不可或缺。自学习算法能够以惊人的效率计算、组合和处理差异,但它们不能自己产生差异。网络环境中的自学习算法有其独特之处。通过大数据,算法“喂养”个人及其行为(有意或无意地)产生的差异,以产生新的、令人惊讶的和潜在的指导信息。算法过程从用户的智能和不可预测性(来自偶联性)出发,对其进行重做并像沟通伙伴那样实现智能运作,而无需算法自身变得智能化。

 

随后的章节探讨了这种情况在算法实际工作中的结果。在第二章中,笔者将数字化社会中列表的增殖追溯到自古以来就为人所知的一个关于列表的事实:它们使管理人们所不理解的信息成为可能——结果是可能产生新的信息。笔者在第三章中分析了可视化在数字人文学科中的使用,将其作为一种使算法文本处理过程中难以理解的结果变得有意义的技术。第四章涉及数字画像和算法个体化,它们实现了标准个性化和一般语境化的矛盾形式,从而重新定义了“语境参考”和“活跃公众”的含义。第五章的重点是试图通过算法实现遗忘技术(“记住要忘记”)所固有的谜团,该章讨论了将算法用于此目的的可能性,原因是算法无法做到这一点。最后,第六章探讨了数字化对照片使用的影响,如今,照片的制作似乎是为了逃避当下的压力,而不是为了将体验保存为记忆。

 

本书在第7章中对算法预测进行了分析,并通过回归智能及其数字形式来结束本书的探索。随着越来越高效的算法越来越缺乏透明度,一种想法正在出现,即机器之所以难以理解,主要是因为其没有什么可理解的。之所以其没有什么可理解的,是因为机器并不去理解。算法看起来很聪明,不是因为它们可以理解,而是因为它们可以预测。正如“开放AI”的首席科学家伊利亚·萨茨克维尔在描述自动写作软件时明确指出的那样:“如果一台机器……可以有足够的数据和计算能力来完美预测……这就相当于理解。”

 

预测是智能人工形式研究的新视野,它从根本上改变了问题所运用的术语,即当你使用算法时,问题不是解释而是预测,不是识别因果关系而是找到相关性,不是管理未来的不确定性而是发现其结构(模式)。然而,世界仍然不确定,未来仍然开放,算法的使用仍然需要解释。在笔者看来,今天出现了控制问题和算法挑战——在意义、偶联性和不确定性仍然是宝贵资源的全球社会中,如何管理算法意义自主的程序的影响。

 

[1] SEABROOK, J. Can a Machine Learn to Write for the New Yorker? [M]//New Yorker,2019-10-14.

 

[2] MORI, M. The Uncanny Valley[J]. Translated by Karl F. MacDorman, and Norri Kageki. IEEE Robotics and Automation,2012,19(2): 98-100. https://doi.org/10.1109/MRA.2012.219281.. 译者注:恐怖谷理论(另名诡异谷,英语:Uncanny Valley;日语:不気味の谷現象)是一个关于人类对机器人和非人类物体的感觉的假设。它在1970年由日本机器人专家森政弘提出,但恐怖谷一词由恩斯特·詹池于1906年的论文《恐怖谷心理学》中提出,而他的观点被弗洛伊德在1919年的论文《恐怖谷》中阐述,因而成为著名理论。森政弘的假设指出,由于机器人与人类在外表、动作上相似,所以人类亦会对机器人产生正面的情感;直到一个特定程度,他们的反应便会突然变得极为负面。哪怕机器人与人类只有一点点的差别,都会显得非常显眼刺眼,显得非常僵硬恐怖,使人有面对僵尸的感觉。可是,当机器人和人类的相似度继续上升,相当于普通人之间的相似度的时候,人类对他们的情感反应会再度回到正面,产生人类与人类之间的移情作用。恐怖谷一词用以形容人类对跟他们相似到特定程度之机器人的排斥反应。而谷就是指在研究里好感度对相似度的关系图中,在相似度临近100%前,好感度突然坠至反感水平,回升至好感前的那段范围。

 

[3] 关于算法以自然方式进行复杂对话的能力,请参见WELCH C. Google Just Gave a Stunning Demo of Assistant Making an Actual Phone Call[OL]. The Verge[2018-05-08]. https://www.theverge.com/2018/5/8/17332070/google-assistant-makes-phone-call-demo-duplex-io-201..

 

[4] 艾伦·图灵(Alan Turing)在《计算机械与智能》(Computing Machinery and Intelligence)中提出了图灵测试,来评估机器表现出智能行为的能力。如果观察者无法将计算机在自然语言对话中的贡献与其人类同伴的贡献区分开来,则机器通过了测试。

 

[5] 参见,例如KURZWEIL R. The Singularity Is Near[M]. New York: Viking Books, 2005; BOSTROM N. Superintelligence: Paths, Dangers, Strategies[M].Oxford: Oxford University Press, 2014.

 

[6] SEARLE J R. Mind, Brains and Programs[J]. Behavioral and Brain Sciences,1980,3(3): 417-457.以及NEGARESTANI R. Intelligence and Spirit[M]. Cambridge, MA: Urbanomic/Sequence Press, 2018.

 

[7] ECO U. Opera aperta[M].Milan: Bompiani, 1962.

 

[8] 显然,它们受到控制并不意味着它们是正确的、中立的,或者应该毫无保留或批评地接受。正如反馈的动态所显示的那样,控制的存在并不排除风险、操纵或负面结果。另一方面,众所周知,人为控制当然不是成功的保证,甚至也不是理性的保证。

 

[9] 引用自SEABROOK, J. Can a Machine Learn to Write for the New Yorker? [J].New Yorker,2019-10-14.

 

 

目录

 

导论    

 

第一章:人工沟通?——算法作为互动伙伴  

人工沟通  

我们可以与不思考的伙伴沟通吗?

虚拟的偶联性

谷歌化

算法学到什么  

学习从机器中学习  

结论    

 

第二章:未经理解的组织:古代和数字文化中的列表

列表、评级、排名

写作、语境和抽象

列表机器  

结论   

 

第三章:阅读图像:数字文本分析中的可视化和解释  

非语言文学分析      

探索图像

视觉刺激

阅读、非阅读、远距离阅读

算法式阅读不是算法阅读

结论   

 

第四章:算法个性化  

匿名个性化

个人的网络       

个性化和标准化      

画像:语境化或行为化?

数字沟通的诸形式

结论  

 

第五章:算法记忆和被遗忘权  

记住去遗忘    

数据驱动代理

网络社会的记忆     

没有记住的遗忘   

数据驱动记忆   

结论   

 

第六章:遗忘图像

摄影体验  

要记住的图像  

现在的风险     

特定时间的体验   

结论  

 

第七章:预测的未来:从统计的不确定性到算法预测  

开放未来的不确定性  

算法预测的占卜面向    

管理未来的不确定性    

平均值vs个体化预测  

制造可预测的未来

当正确的预测错误时  

失明和过拟合   

记忆与幻想      

结论    

 

结语   

 

作者致谢  

 

参考文献    

 

附:透明度与解释:模糊性在法律AI中的作用

简介:从人工智能到人工沟通

对难以理解的机器的诠释   

解释需要透明度吗?   

人工理性与机器法学    

模糊性在法律论证中的作用    

结论:与机器沟通  

 

译后记