当前位置:首页 > 文献资源 > 论文著作 > 理论推演
陆凯 | 美国算法治理政策与实施进路
2020年09月16日 【作者】陆凯 预览:

【作者】陆凯

【内容提要】

内容提要:随着大数据相关技术的发展,越来越多的政府和私人主体开始利用算法进行日常事务和决策的处理。美国法学界对如何规制算法对于法律的影响,诸如正当程序、透明度、隐私、责任和问责等问题已有许多的讨论,既有对现有法律的再解读,也涉及新制度的提出。同时,美国政府在这一方面也有积极的响应,已出台多个文件以确立人工智能的治理战略和指导原则,并持续更新。在具体领域,联邦和州政府通过立法和司法判例已经取得了一些算法治理的成果。行业自律监管和社会组织也在算法治理的问题上提供了有益支持,通过合作建立新制度或直接致力于影响法律修改等方式来推动算法治理的发展。

 

本文试图描述美国政府和非政府实体是如何以不同方式对不同产业、不同场景下开发和应用算法的活动进行“治理”的。此处所使用的“算法”(algorithm)一词,是指并非全由人类执行,但是为完成某项任务在设计软件时所嵌入的数字化流程或者规则。由于算力的发展和大规模数据收集的增多,越来越多的政府或者私人部门主体利用算法进行决策、完成任务或者辅助理解复杂系统。本文的目的不是对适用于各类人工智能的法律、规章或者政策机制进行评论,而是希望通过一系列范例而展示美国算法治理的去中心化和动态性的发展。

 

美国是一个联邦制国家,联邦、州和地方的行政机关和法院,以及私人公司和非政府组织,都在型塑算法治理的过程中扮演着重要角色。这些主体并不必然根据一套统一或者集中的价值观、规章或者规范行事。很多法律或者规章也规范了私人公司、政府实体和个人利用算法的行为,本文将择取其中若干法律和规章加以概述,并简要讨论白宫和一些联邦行政机关所发布的相关人工智能“计划”和战略。

 

一、美国学术界相关讨论的现状

 

本文不仅分析了不同的原则和目标,也分析了实现这些目标和保护根本性法律价值的制度性机制(institutional mechanisms)的发展。学者们聚焦于算法对于法律中诸如正当程序、透明度、隐私、责任和问责等相互竞争的价值所产生的影响,不仅讨论了如何加强和保护各种法律原则和规范目标,例如权利的维护,也讨论了各种实践性的目标,例如在不同法律场景中算法决策的有效性和准确性。学术讨论也涉及算法对特定法律领域的影响,以及算法对于法律职业本身可能产生的影响,包括司法决策的过程等。当前的学术讨论了有关算法开发和利用的各种规章,即“算法治理”(governance of algorithms);也讨论了在作出治理性决策时对算法的利用,例如对政府资源的分配,包括“利用算法的治理”(algorithmic governance)。考虑到美国学者通常是在本国法的语境下讨论算法问题,普通法原则和程序构成了重要的背景。尽管大多数学者讨论的是算法对已有法律产生的影响,以及应当被纳入已有的法律范式和原则之中,但是有的学者也建议将“人工智能”或者“算法”视为可能影响所有法律领域的全新的建构性范式。

 

需要说明的是,下文所列举的例子并不试图呈现学术讨论的一幅全景图,而是希望呈现不同法律领域学术讨论的一组剪影。下文列举的各种类型不是相互排斥的。有的学者尽管不在美国工作,但是他们所提出的观点与美国相关,对于美国的学术讨论也产生一定影响。

 

(一)正当程序

 

正当程序原则在美国法律制度发展的历史中发挥着关键性作用。美国《联邦宪法》第五修正案和第十四修正案均规定了正当程序原则。《韦氏词典》(Merriam Webster)给正当程序下了两种定义:一是“有规律地、根据公认的规制和原则进行的正式程序(例如法律程序)”;二是“一项司法要求,即已制定的法律不得包含可能导致对人的不公平、无端或者非理性对待的规定”。在对算法进行治理的场景中,许多学者根据正当程序观念,提出了有关公平、可解释性、透明度和非歧视性等相关主张。这些主张包括正当程序与算法治理之间的兼容性问题,也包括更多的技术性要求,即质疑算法是否能够符合正当程序要求。大多数学者也从规范和历史角度分析了“正当程序”目标,并且通过这一“透镜”审视算法应用的现状。

 

在《评分社会》中,西特伦(Danielle Keats)和帕斯奎尔(Frank Pasquale)从积极和消极两个方面讨论了当今社会中算法的广泛应用场景。两位作者忧虑的是算法正在以不同方式挑战个人的正当程序权利,比如算法决策的“不透明和缺乏监督”。他们认为,利用计算机代码作出决策的手段,与在进行法律决策时正当程序原则所要求的“人与人之间叙述性的、可理解的交流,以及不能简化为软件程序的与人之间的交流”的方式有所不同。易言之,在算法的利用中需要明示对正当程序的考量以及法律用语和计算机代码之间的根本性语义差别,有时还需在特定场景中予以限制。

 

伯恩斯坦(Stephanie Bornstein)在其撰写的《反歧视算法》一文中认为,《美国联邦法典》第七编(Title VII)禁止雇主基于“种族、肤色、宗教、性别或者国籍”等因素进行歧视,而过去有关“改进算法”或者“改进立法”的呼吁关注的是这部分联邦立法所列目标的子集,范围过窄。监管者和法学家还应当考虑该编规定的“反刻板印象化”(antistereotyping)目标,即“人们受到的对待应当不仅在受保护的群体类型之间平等,还应该在个人之间平等,使其免于其所在群体相关的刻板印象的影响”。尤其是在算法用于有关员工招聘和晋升的相关决策时,这种动态发展引起了一系列严重问题,因为它们很容易导致对个体产生成见。巴罗卡斯(Solon Barocas)和赛博斯特(Andrew Selbst)也质疑算法无法做到不歧视,认为算法和偏见问题的“解决”需要面对政治、法律和技术等多方面的挑战,应当“全面地重新审视‘歧视’和‘公平’的含义”。

 

基姆(Pauline Kim)在《数据驱动的职场歧视》一文中认为,根据相关法律规定,在招聘过程中使用算法可能被认为是非法的,采用分类方案对员工进行分类或者打分的方法会加剧不平等或者劣势。作者将由于分类偏差而造成的差别影响问题作为分析框架,阐明了应用现有法律的重要方式,以及需要适用新法律的必要性。

 

阿均瓦(Ifeoma Ajunwa)在《反偏见干预的自动化的悖论》一文中提出了类似的主张,她认为利用算法解决招聘员工过程中存在的偏见不是技术性问题而是法律问题,并且建议将受托人的注意义务延伸适用于招聘系统的算法开发者。她也建议提供劳动法之外的救济手段,例如将对工作申请人的保护规定入消费者保护法,从而“强制要求允许他们在做出雇佣决定时可以查阅自动化招聘系统的信息档案”。她也在相关论文中指出,追踪雇员和工人生产力的可佩戴设备和自动化系统引发了隐私、歧视和工作场所安全等严重问题。

 

纳克巴(Thomas Nachbar)教授在《算法公平与算法歧视》一文中指出,将公平性的要求纳入算法决策之中可能并不合适,因为法律规则通常以约束的形式而非有待优化的功能存在。他也认为,美国的反歧视法在应对“历史性、制度性”的歧视中得到发展,数字化、自动化的歧视可能并不新鲜。事实上,完全的算法“透明”是不必要的,因为无论是否存在透明度的问题,现有的反歧视法已经为应对歧视提供了足够的模型。而对算法歧视的矫正,应当根据是否因存在算法处理方式汰旧换新的变化而作出不同处理。

 

除了雇佣和其他民事领域存在的歧视之外,也有学者讨论了算法在刑事司法领域的作用。在《输入偏见,输出偏见》一文中,基姆(Sandra Kim)反对利用算法对人们未来实施犯罪的可能性进行风险评估。其认为,风险评估本身很容易造成偏见,因为它们依赖过去的信息去预测未来。事实上,不应采用算法来预测未来的犯罪,而应采用算法作为诊断工具来查找司法决策中存在的差异、偏见和其他缺陷。易言之,利用算法对被告人作出判决很可能是存在偏见的,而利用算法改进司法决策则可能有所裨益。

 

有的学者提出了具体的制度改革建议,以应对正当程序已有范式所面对的挑战。例如,西特伦在《技术性正当程序》一文中认为,正是因为行政规则制定和裁决的正当程序要求,例如告知和获得听证的机会,同样应当适用于算法决策。为了补救现有的差异,可以建立一个“结构精心设计的纠问式质量控制模型”,以便法学家和受行政决定影响的个人利用“能够增强嵌入自动化决策系统的规则的透明度、问责度和精确度的机制框架”更有效地对自动化决策系统提出问题。文中也为多种场景下保持和强化正当程序要求提出了具体的制度性建议。

 

克罗尔(Joshua Kroll)等人在《可问责的算法》一文中试图消除法学家与算法技术的开发者、应用者之间理解的隔阂。在他们看来,许多与法律和算法治理相关的问题,都是因为不同主体未能共同协作或不能理解不同利害关系人的视角和要求。例如,软件工程师、律师和其他领域的个体可能会对什么构成“歧视”持有不同的观点。如果要消除歧视,强有力和有效的法律解决方案是应当整合这些不同的视角,即“通过促进计算机科学、法律和政策的协同合作,以推进问责制自动化决策程序的设计”。

 

卡明斯基(Margot Kaminski)在《二元治理:从 gdpr对算法问责进路获得的启示》一文中,竭尽所能为更有效的算法治理提供了一个完整的范式。其提出了治理的三种目标:尊严性治理(寻求维护人类尊严)、正当性治理(例如评估算法推理的合法性或者“可解释性”)和工具性治理(例如尽力避免错误和偏见)。因此建议将个人正当程序权利体系与“通过合作治理实现的系统性监管”,即通过公私合作实现的治理相整合。

 

(二)透明

 

算法决策的透明依然是学术讨论的焦点。对于透明度的必要性以及在透明度目标的背景下算法治理的合理性、局限和能力等问题,学者们提出了多种主张。以下列举的两篇论文在尊重透明度的历史性和规范性要求的同时解决了算法技术的限度问题。

 

在《透明度和算法治理》一文中,科里亚尼斯(Cary Coglianese)和莱尔(David Lehr)认为,算法难以理解的“黑箱”问题不是无法克服的。他们讨论了各种类型的透明度,例如“鱼缸式的透明度”(fishbowl transparency)和“合理的透明度”。尽管算法的运用同时涉及这两类透明度类型,但他们认为法律规定并不要求“完全透明”,并且“通过解释算法的目的、设计和基本运行原理可以满足”说明理由和可解释性的法律要求。

 

德赛(Deven Desai)和克罗尔(Joshua Kroll)在《信任但需验证:算法与法律研究导论》一文中,采取了更技术性的进路,试图协调有关透明和其他规范目标的法律和技术争论。他们认为,“法律对于因果关系采取的是线性的,几乎是牛顿式的因果观,即输入和定义的程序可以得出明确的输出结果”和“采用不适合披露的庞大数据集”的“现实计算机系统”之间存在“不匹配”的问题。这种不匹配导致人们受到误导,徒劳地寻求算法透明度。他们建议,通过立法途径以更具“连贯性的方式”来管理算法,包括制定保护内部举报人的立法和针对算法系统的各种要求(例如监管要求程度各有不同的行业中公共和私人主体所采用的白箱和黑箱测试,以及事后的分析和监督)。

 

(三)隐私

 

在算法治理的场景中,隐私是一项重要且受到广泛讨论的原则。越来越多的公司从个人或者客户处收集大量的数据。这些数据既被输入算法,又通过算法排序。以下两篇论文体现了在这个算法治理的时代,学者是以何种方式依赖已有的制度和法律框架,并主张对其加以扩张,以便保护隐私。

 

在《新治理、首席隐私官和美国公司的信息隐私管理》一文中,班贝格(Kenneth Bamberger)和穆里根(Deirdre Mulligan)通过对各技术公司内部实务的考察,为我们提供了隐私治理的现实图景,他们将其称之为“监管者、市场与利害关系人等多种力量”结合的产物。他们提供的一系列最佳实践,包括“通过贯穿全公司的技术、决策程序和对分散式专业能力网络的赋权,将隐私纳入全公司范围的风险管理目标之中”。

 

巴尔金(Jack Balkin)在《信息受托人和第一宪法修正案》一文中认为,“受托人”模式可以适用于收集和评估大量数据的主体。传统受托人包括需要持有执照才能以其服务营利的具有特定技能的专业人士,例如律师和医生。技术公司应当承担作为“信息受托人”或者叫作“因为与他人的关系,承担因该关系存续而获得之信息的特别义务者”的责任。易言之,技术公司应当像守护者那样对待其用户和客户,对他们的信息及其准确性负责。除了保护用户的权利之外,此类责任还应当包括保护用户的隐私。

 

上述两个例子,不仅是对现有法律的再解读,也涉及新制度的提出,以扩大现有法律范式的可利用性。他们既希望能够扩大监管者与私人公司的首席隐私官之间的制度性合作,以及扩大私人公司内部不同主体的法律能力,同时也希望将“受托人”范式扩张适用于收集信息、开发和运用算法的公司。

 

(四)责任和问责

 

最根本的治理问题涉及让合适的主体对其决策和算法的输出结果接受问责的法律责任和手段。在这一问题上,学者们基本上一致认为自动化让法律责任的动力机制发生了开创性的变革。但是,对于什么是合适的政策应对,学者们分别采用了不同的进路。

 

在《机器人的弥补机制》一文中,莱姆利(Mark Lemley)和凯西(Bryan Casey)认为,让机器人的所有者或者设计者对机器人的行为负责是不合适的。他们提出对于机器人的“弥补体系”,认为自动化系统的运用可能改变法律责任问题,需要引入保险计划或者无过错责任原则之类的新型责任制度。巴菲尔德(Woodrow Barfield)在《自主性人工智能机器人的责任》一文中,在讨论了若干涉及机器人的背景性案例,鼓励将对机器人的规制和责任制度相互关联加以考虑。弗拉德克(David Vladeck)在《没有委托人的机器:责任规则和人工智能》一文中也采用了实践性的进路,对现有的责任制度如何适用于横跨自动驾驶汽车等多个行业的假设性场景进行了分析。他主张建立严格责任制度,“将这一特定类型的案例完全与过错概念脱钩”,不是因为自动驾驶汽车“异常危险”或者“具有不合理风险”,而是因为“与所取代的产品相比,它们具有的危险或者风险水平要低得多”。在他看来,自动驾驶汽车的风险要小于司机,这一事实表明其他责任标准,例如过失,很难在实务中执行。因此,保护消费者最好的方式是采纳严格责任制度。

 

有的学者采取了不同的进路,他们认为,尽管自动化提出了一些有趣的问题,但它并没有明确要求修改责任制度。例如,菲弗科恩(Chagal-Feferkorn)在《我是算法还是产品?》一文中认为,“考虑到自主性的过度复杂性,自主性并非区分产品和会思考的算法的理想标准,因为这种区分标准会产生不切实际的荒谬或者矛盾的结论。”其不认为自主性会导致必须修改责任制度,相反她建议适用“目的性解释”方法,此种方法可以“帮助裁决者确定何时应当适用产品责任规则,何时不适用”。在其另一篇文章《合理的算法》一文中指出,自动化系统所致损害的责任依然由开发和运用此类系统的自然人或者法人承担。有所变化的是对“合理性”的判断:法院应当审查算法系统及其“决策”的合理性,而非像传统的做法那样审查程序员的特定选择是否合理。易言之,产品责任制度的主要因素并无变化,自动化的运用导致谁是负责任者和某物(而非某人)是或者不是合理这两项判断的分离,使得责任制度更加复杂。例如,自动驾驶汽车开发者依然需要对损害负责,但是“合乎理性”标准将适用于自动驾驶汽车而非其开发者。

 

维拉塞纳(John Villasenor)在《产品责任和无人驾驶汽车:问题与立法指导原则》一文中对于自动驾驶汽车采取了一种更为保守的进路。在论证普通法制度已经能够处理有关自动驾驶汽车的责任问题时,他认为产品责任法原则已经有力地促进实施严格的安全标准,州法院总体上已经证明在面对新技术时有能力应对或者经过调整后可以适应;先占性联邦立法(先占性联邦立法是指国会通过的立法有着更高的权威,可以事实上取代州立法)可能并没有那么精细或者灵活。《自动驾驶汽车示范法》的起草者史密斯(Bryant Walker Smith)也提出了类似的看法,即产品责任法“很可能兼容”自动驾驶汽车所提出的责任问题。易言之,产品责任法尽管并不完美,但还是激励着生产商保持高度的安全标准,为潜在的原告们提供获得补偿的手段。他也在《人工智能交通的伦理学》一文中更进一步指出自动驾驶汽车治理的一个关键内容将是集中关注开发和应用自动驾驶汽车的公司的可信赖程度。

 

有些学者对于责任问题采取了比较研究或者实证研究的方法。在《算法侵权:前瞻性的比较研究概览》一文中,因凡蒂诺( Marta Infantino)与王(Weiwei Wang)认为,迄今为止,在不同国家和法域,大多数有关算法活动的决定是由法院或者监管金融、保险等特定行业的专业性行政机关作出的。但是,“行业自律监管”,包括职业协会和私人公司制定的非拘束性的标准和指南,却“很少明确可能的责任规则”,因为它们都过度依赖先占性的(联邦政府制定的)、对行业友好的规章。通过比较不同法域,评估美国、欧盟和中国的异同点,该文体现了比较研究与实证研究的价值。

 

(五)特定领域的学术研究

 

许多学者也集中讨论了在特定法律领域算法产生的影响。下文所举实例分别涉及言论监管、医疗事故和反垄断领域。

 

在《算法社会的言论自由》一文中,巴尔金主张保持《联邦宪法》第一修正案的“核心目的”,即“防范国家通过新的控制和监控机制进行审查”。事实上,我们日益生活在“算法社会”之中,这使得国家有必要同时“作为私人开发控制和监控机制的必要的抗衡力量”。尽管第一修正案依然需要保护个人免受国家的审查,国家也应当开发各种方法以保护个人的言论自由免受FacebookTwitter等第三方中介的侵犯。

 

哈内德(Zach Harned)、伦格伦Matthew Lungren)和拉杰帕卡(Paranv Rajpurkar)在《机器视觉、医疗人工智能和医疗事故》一文中讨论了算法在医疗事故法律中的作用。他们认为,尽管医疗事故背景下与自动化具体相关的判例法数量有限,但是,对于其他行业,例如自动驾驶汽车(如自动驾驶汽车的生产商采用了多种方法试图减少承担责任的风险,包括遵循行业标准),涉及机器视觉的判例对于进一步发展医疗事故法是有启发意义的。

 

梅赫拉(Salil Mehra)在《反垄断和机器人卖家:算法时代的竞争》一文中讨论了算法的采用如何影响反垄断法,特别是在电子商务场景中。作者考察了算法定价如何改变电子商务,并就自动化对消费者福利和反垄断法的规范考量和目标所产生的更广泛的后果提出一系列主张。

 

(六)法律理论:“人工智能”治理作为法律的新领域

 

尽管许多学者关注的是算法在特定行业或者特定法律领域中的作用,也有学者采取的方法是将算法和人工智能作为一种建构性视角,以此认识或者修改法律规范。

 

在《法律的道路:迈向法律奇点》一文中,阿拉里(Benjamin Alarie)认为,即将来临的“法律奇点”,涉及“从一个采用不可靠、缓慢和成本高昂的沟通方式,非电子的世界向采用几乎实时、成本接近于零的沟通方式实现数字化连接的世界性转型”,将会影响“所有法律领域”。这一变革将会包括争端解决机制的改进、“更高级和日益完备的法律”,包括“对所有法律领域的……所有细节的完整规定”。类似地,在《理解和衡量日常生活中算法治理的指南》一文中,为了帮助建构治理与规则之间的对话框架,拉特兹(Michael Latzer)提出了一个衡量“算法治理的意义和在不同的生活领域中对其加以检验而采用的实证性的混合方法进路”,但是担心对于具体是什么构成“算法治理”缺乏实证研究加以明确,将会导致“不切实际的风险评估和不成熟的政策结论”。

 

巴萨伊(Yavar Bathaee)在《人工智能黑箱与故意和因果关系原则的失灵》一文中,集中讨论了算法的“黑箱”性质将如何威胁美国法律中的一些重要原则,特别是故意和因果关系。其认为,因为我们可能无法确定算法如何在具体情境中作出决策,因此难以在涉及“黑箱”算法的法律决策时确定并依赖故意和因果关系的论证。同时,不应该采纳严格责任或者适用先占性的规章,而是建议采用“浮动比例”(sliding scale)的方法来确定任何特定系统相关的自主水平,并且适用不同的责任水平。

 

塔特(Andrew Tutt)在《算法的 FDA式监管机构》一文中采取了更广的制度进路。其认为,对算法的有效监管需要“联邦层面的一致性、专业判断、政治独立性和上市前审查,以防止(在不阻碍创新的情况下)将过度危险的算法引入市场”。他建议设立一家集权式的联邦行政机关,该机关有权制定指南、标准,并且拥有足够的专业能力去审查批准“某些复杂、危险的算法”。这种进路将算法视作完全独立的一种法律类型,需要相应的联邦行政机关专司其职。

 

克劳福德(Kate Crawford)和舒尔茨(Jason Schultz)认为,当政府“以违法的方式采用它们的人工智能工具”时,“人工智能系统”应当依法被视为“政府主体”(亦即政府代理人),许多政府已经表示他们缺乏足够的知识或者能力“以理解、解释或者补救它们从第三方采购的人工智能系统所产生的问题”,而私人公司则认为它们不是政府主体,不需要像政府那样遵守公开和正当程序要求。他们认为,为政府提供算法服务的私人主体应当被视为政府主体,以确保问责和良好治理。

 

(七)法律服务的自动化

 

有些学者关注的不是算法会如何影响法律及其实施,而是会如何影响律师、法律职业和其他受到高度管制的、高技能的专门职业。一些学者认为,法律领域的自动化不仅不可避免,而且也是有益的发展。另外一些学者则完全质疑法律领域自动化的作用。以下分别举例加以讨论。

 

在《专门职业的未来》一书中,萨斯坎德(Richard Susskind)和萨斯坎德(Daniel Susskind)预测了“现有职业的消亡”,描述了哪些主体和系统将会取代这些职业。他们认为,随着“网络社会”的发展,出现了包括人工智能在内的功能日益强大的系统,它们将会给医生、教师、律师、会计师、建筑师、咨询师和牧师等众多专业化程度较高的职业带来根本性的变革。

 

另外,帕斯奎尔则在《人工智能和机器学习时代的专业判断》一文中认为,在健康、教育、法律等领域以人工智能取代专业人员,很可能并不会为病人、学生和客户造福。事实上,自动化的服务往往“逊色得多”,因此此类行业应当保持专业人士居于核心地位。

 

(八)法官和司法决策的自动化

 

除了讨论算法以何种方式影响律师和法律职业外,有的学者也关注算法在改变法院和法官作出判决的方式中的作用。

 

沃洛克(Eugene Volokh)在《首席机器人大法官》一文中认为,人工智能程序某一天会胜任律师或法官的角色,社会应当接受,“毕竟与人类法官相比,人工智能程序的可靠性并不逊色而成本有效性则更胜一筹”。如果这类“人工智能法官”能够在判决意见书的写作方面胜过人类法官,那么它就应当被视作法官,即使它们的“判决意见并不是源自人类的判断”。

 

其他学者则没有这么乐观。例如,雷(Richard Re)和索洛尔—尼德曼(Alicia Solow-Niederman)就认为,人工智能裁决会对“法律主体们所秉持的裁决价值”产生深刻影响,并区分“衡平司法”和所谓“法典化司法”,后者会“更青睐标准化而非裁量”。类似地,马凯兹(Kiel Brennan-Marquez)和亨德森(Stephen Henderson)对“人类裁判”和“判决过程的规范完整性”进行了辩护,指出“受托作出判决者应当同样容易受到判决的影响”。他们将这一特征称之为“角色可逆性”,并且认为我们根本不能像对待人类法官一样要求自动化的判决系统接受问责。克罗托夫(Rebecca Crootof)同样反对法官过度依赖算法和自动化。她认为,尽管人工智能系统“完美地最大化了人类和机器智能的优点,但也可能放大了二者的缺点”。这些缺点包括过度信赖、信赖不足,界面设计错误,以及“二次结构性副作用”,例如“技术—法律锁定效应”,即“某种新出现的法律的持久性对法律演进设置了新的障碍”。易言之,自动化法官的运用,可能会无意之中颠覆司法判决的传统原则,例如会被质疑的清晰推理,以及法官理解法律并进行调整以适应新的情景的能力。以上所作的样本分析主要介绍了美国学术界的讨论是在如何努力回应算法在不同场景中对不同法律领域以及律师和法官的工作所产生的意义。以下将展现一个大致的时间轴,记录联邦政府对算法在众多不同行业日益得到广泛应用而作出的应对。

 

二、联邦政府的战略与原则

 

美国联邦政府在算法治理方面发挥着越来越积极的作用。它所采取的行动包括白宫发布的各项政策和总统行政命令、联邦行政机关发布的新规章、国会新制定的法律、对已有立法所作的新的解释和适用以及联邦法院作出的判决。联邦政府的“算法治理”既规制私人企业的行为,也规制联邦行政机关的行为。

 

(一)奥巴马政府发布的人工智能报告和战略规划

 

总体而言,美国政府的行政分支(包括白宫和联邦政府的行政机关)还没有采取集中的、命令控制式的方法对人工智能(包括算法应用)加以治理。与此同时,奥马巴政府和特朗普政府已经积极敦促科技政策办公室(Office of Science and Technology Policy)关注人工智能的开发和治理。两任政府均已制定了规划和指导性文件鼓励联邦行政机关开发负责任的人工智能治理机制。2016 10月,奥巴马政府公布了一份报告,讨论了人工智能现状、已有和潜在的应用,以及人工智能的发展可能给社会和公共政策带来的问题。在制作这份人工智能报告时,奥巴马政府曾公开征求意见,希望公众对人工智能的现状和未来发表意见。政府随后发布了所收到的全部 161份回复,并组织了一些公开活动,包括一次研讨会。需要说明的是,2016年的这份报告以及后续发布的报告不是描述和实施规则的规章性文件,而是表明政府意图的雄心勃勃的宣言。在发布 2016年人工 智 能 报 告 的 同 时,奥 巴 马 政 府 还 发 布 了 《人工智能战略计划》(AI Strategic Plan),讨论了当前人工智能技术的科技差距,并提出了如何开发人工智能以促进对经济和社会产生积极影响的问题。2019年,特朗普政府对这份战略计划进行了更新。新修订的战略计划涵盖了开发实现人类与人工智能协作的有效方法、确保人工智能系统的安全和保障、开发用于培训和测试人工智能的共享公共数据集和环境等方面的设想。

 

(二)特朗普政府发布的人工智能领域总统行政命令

 

2019 2月,特朗普政府发布了一项总统行政命令,启动了AI.gov网站,这是一项旨在吸收私人部门、学术界、公众和国际主体合作和参与并适用于全政府范围的战略性举措。它要求联邦机构采用多管齐下的方法推进人工智能技术,利用各自的职权鼓励和促进人工智能技术和现代劳动力的开发和利用。尽管该项总统行政命令列出了应该参与这一努力的一些重要的行政机关,但它不包括诸如规则或规章条例等有强制约束力的治理机制。2020年,特朗普政府发布了一份有更为具体的指导原则的清单。

 

(三)2020年《人工智能应用监管指南》

 

20201月,白宫管理预算局发布了新的监管指南,明确提出了建立和维护公众对人工智能之信任的目标。这份文件并没有描述行政机关应当遵循的各种广泛性原则,而是提出了一系列具体程序,希望以此确保政府行政机关可以通过建立合适的公共和私人审查机制,在信任和创新之间找到平衡,从而有效监管人工智能应用。这份指南为政府行政机关在抽象的原则和建立更具体的治理机制之间架起了一座桥梁。指南列举了行政机关需要在假定人工智能并不完善的前提下理解、分类和防范人工智能系统产生的风险。该文件指出,“许多人工智能应用并不必然会提出新的议题”,并且希望行政机关不要放弃“由来已久的联邦监管原则”,将人工智能纳入已有的治理和监管机制之中。但建议少用“硬性”(或者正式)监管,并且鼓励行政机关与私营部门进行合作。

 

总的来说,这份指南关注的是“狭义的”人工智能,或者是能够有效完成少数几种任务的人工智能,而非通用人工智能(artificial general intelligence),后者是指人工智能在众多任务上能够超越人类智能的一种理论。这份指南也涉及了一系列议题,包括联邦和州政府(以及州与地方政府)之间监管存在的矛盾、数据质量的重要性,以及公开和透明对于树立公众信任的重要性。提出了加强公共参与、鼓励行政机关公布更多的联邦数据供公众使用等多项建议。

 

三、联邦算法治理的若干实例

 

(一)联邦行政机关

 

为了应对不同行业的算法发展和日渐增加的算法应用,一些联邦监管机构在其职权范围内对算法的某些利用或影响进行监管,这些行动既是对上述总统行政命令的响应,也是主动性的。并没有哪一个行政机关被赋予“治理”或者“监管”人工智能或者算法的职责。相反,不同行政机关都在探索以各种方式发布新规则或者对已有的规则加以解释,以便将算法系统纳入它们已有的职责范围之内。

 

联邦贸易委员会( Federal Trade Commission)将其职责解释为包括在国家层面对隐私规则和侵犯隐私的行为进行监管。例如,在 faceBook未能根据 2012年联邦贸易委员会发布的一项命令改善其隐私保护状况后,委员会对其作出了一项行政罚款决定,对其罚款 50亿美元。同时,联邦贸易委员会还多次举行听证会,讨论竞争和消费者保护如何应对“21世纪对算法和预测分析的使用”。这些听证会关注的是算法的全新运用如何影响从消费者保护到反垄断的各种法律范式。

 

联邦食品和药物管理局(Food and Drug Administration)对人工智能的特定用途发布了一些指导文件,包括人工智能赋能(AI-powered)的医疗软件和移动医疗应用程序,以确保这些应用程序仍然符合联邦食品和药物管理局现有的规章。联邦食品和药物管理局还批准了人工智能的其他用途,例如,允许制药公司销售基于人工智能的软件以及人工智能赋能的糖尿病筛查技术。

 

证券交易委员会(Securities and Exchange Commission)也通过颁布一系列指导文件强调,委托人责任和其他责任以及应如何适用于“智能投资顾问”(robo-advisers)(或算法驱动的投资顾问程序)和算法交易这两项事务属于证券交易委员会的管辖范围。证券交易委员会还开始使用机器学习算法来增强自身的监管能力(主要是通过数据分析)。

 

联邦政府还采取了一些初步措施来监管运输行业。2017年秋季,联邦航空管理局(Federal Aviation Administration)制定了“无人机系统集成示范计划”(Unmanned Aircraft Systems Integration Pilot Program,简称UAS IPP)。联邦航空局与包括数百个州、地方和部落政府在内的 2500多个相关方合作,为实现无人机的安全集成制定标准和规则。联邦航空局还建立了无人机数据交换系统(UAS Data Exchange),以鼓励政府和产业界合作共享空域数据。同样地,交通部(Department of Transportation)尽管尚未发布正式的法规,但已发布了一份报告,以便将自动驾驶汽车安全整合到现有的交通系统中,这份报告的内容包含了对监管指南的讨论。与交通部的报告类似,许多其他联邦行政机关采取的行动都属于非监管或“监管前”的范畴。例如,美国国家科学基金会(National Science Foundation)与亚马逊公司合作,试图更好地理解如何构建公正、不含偏见的算法。同时,美国国家标准与技术研究院( National Institute of Standards and Technology)也发布了一项计划,将协助联邦政府制定与人工智能和算法相关的技术标准。

 

(二)近期的联邦立法

 

为了应对数字经济和不同行业的算法应用所带来的挑战,国会通过了一系列法律。其中,最值得关注的立法之一是 2018 3月通过的《云法案》(CLOUD Act)。该法案允许联邦执法机构凭借获得法院批准的令状或传票,责令位于美国境内的技术公司按照要求提供存储在其服务器上的数据,即使这些服务器位于美国境外。它还授权联邦政府与其他国家签署行政协议,在遵守正当程序要求的情况下,取消各国法律对执法目的数据共享所作的限制。2015 12月,奥巴马总统签署了《修复美国地面运输法》[Fixing Americas Surface Transportation (FAST) Act]。这部法律要求交通部长评估和改进交通部对自动驾驶汽车的应用所作的应对措施,包括通过鼓励科研和推进技术体系。

 

(三)现有联邦立法

 

除了上述立法以外,还有许多法律其制定时并没有考虑到算法治理问题,但是其条文表述是技术中立的,可以适用于目前应用人工智能的各种行业。这些制定法对于人工智能治理发挥了重要作用。

 

《公平信用报告法》(Fair Credit Reporting Act)主要规定了(使用算法或人工决策进行)消费者信用信息的收集、信用报告的制作和获取。该法于 1970年制定,至今仍然有效,适用于涉及自动收集信用信息的情形。银行业管理遵循“技术中立”的其他制定法包括《公平住房法》(Fair Housing Act)和《平等信贷机会法》(Equal Credit Opportunity Act)。这些立法是技术中立的,因为它们并不区分是人类还是算法在进行决策,无论如何,被管理的行为都必须遵循法定程序。

 

1996年《健康保险可携带性和问责法》(Health Insurance Portability and Accountability Act)中规定了医疗信息(包括个人可识别信息)的收集和流动。随着医疗行业中越来越多的企业采用算法和数字技术,它们有责任确保遵守该法的隐私保护要求。2000 4月生效的《儿童在线隐私保护法》( Childrens Online Privacy Protection Act)。对以 13岁以下儿童为受众的网站或在线服务的运营商设定了一系列要求。管理在线服务的算法并不能豁免适用《儿童在线隐私保护法》中保护儿童的要求。

 

以上只是少数应用实例,由于许多公司和政府机构正在受到严格控制的行业中使用算法技术,这种使用也受到了监管,因此仅仅使用算法也并不能使其摆脱现有的规则。

 

(四)正在立法程序之中的联邦立法

 

有国会议员提出了一些立法草案,如果获得通过,将在不同领域治理算法。以下列举的是正在立法程序之中的联邦立法,但并未穷尽。进入参议院和众议院立法程序的众多法律草案都可能会对算法治理产生影响,但是也有很多进入立法程序的联邦立法最后不能获得通过。因此,这份目录只是说明了议员们正在考虑采用何种方法治理算法。

 

美国国会目前正在处于辩论程序的法案包括以下几个。首先,《算法问责法》(Algorithmic Accountability Act)指示联邦贸易委员会制定和实施新规则,要求采用“自动决策系统”的私人公司设立内部影响评估委员会、定期发布公开报告,讨论自动决策系统对准确性、公正、偏见、歧视、隐私和安全的影响。公开报告的内容将包括公司内部关于改进算法、成本效益分析和其他考虑因素的讨论。其次,《线上用户欺骗性体验减少法》(Deceptive Experiences To Online Users Reduction  Act, 简称the DETOUR Act )的立法目的是阻止采用“暗黑模式”或设置诱骗用户放弃个人数据的数字交互界面,要求私人公司设立独立审查委员会(Independent Review Boards),以确保公司的应用程序不包含“暗黑模式”,同时创设了向用户和联邦贸易委员会报告的义务。最后,《司法算法正义法》(Justice in Forensic Algorithms Act)则禁止利用商业秘密特权阻止辩护律师在刑事诉讼中获取证据。数据创新中心(center for data innovation)也制作了一个有关对算法进行治理的其他正在立法程序之中的联邦立法跟踪网页。

 

(五)联邦普通法

 

以下所举实例主要是反映联邦法院如何根据已确立的普通法原则对涉及算法治理的新问题而作出相应回应。需要指出的是,这里只是一个样本分析,并不必然反映美国法在这一议题上的发展轨迹。这些案例很多是由联邦地区法院判决的,其判决书在联邦普通法的位阶中只具有比较有限的先例效力。

 

1)反恐怖主义(私营部门):Force v. Facebook, Inc., 934 F.3d 53 (2d Cir. 2019)。恐怖袭击的受害者起诉Facebook,指控该社交媒体公司运营的平台基于算法的内容分发实质上形成了对一家恐怖主义组织的支持,从而违反了美国法律。法院驳回了这一观点,判定 Facebook只是开发算法,其设计的目的是让用户相互匹配,不构成“开发”恐怖团体发布的内容。

 

2)侵犯版权(私人部门):Ryoo Dental, Inc. v. Thomas D. Han DMD, (C.D. Cal. Apr. 25, 2016)。原告声称,因为被告的网站存在大量侵犯版权产生的重复内容,阻碍了原告从其网站获得大量医疗收入。此案争论的焦点是有关谷歌算法如何对搜索结果进行分类和排序的证据。法院驳回了原告的诉讼请求。

 

3)雇佣—错误终止(私人部门):Morales v. McKesson Health Sols., LLC, 136 F. Appx 115, 116 (10th Cir. 2005)。一家医疗服务公司的前雇员声称她遭到错误解雇。该公司作出解雇决定的依据包括一份由算法生成的报告,内容显示原告和其他员工的行为和表现存在的差异。法院判定该雇员未能证明公司作出的解雇决定理由只是一个借口。

 

4)产品责任(私人部门):Wickersham v. Ford Motor Co., 194 F. Supp. 3d 434 (D.S.C. 2016)。原告的丈夫在车祸中因安全气囊而受伤后选择了自杀。此案的关键点在于制造商是否意识到安全气囊的设计存在更安全的算法。法院裁定存在的事实问题,足以让该案满足越过“简易程序”阶段而继续审查的要求。该案目前仍在审查之中。

 

5)反垄断(私人部门):Meyer v. Kalanick, 174 F. Supp. 3d 817, 82021 (S.D.N.Y. 2016)。原告声称,UBer的首席执行官所采用的 UBer的定价算法,以限制司机之间以竞争的方式设置向乘客收取的价格。法院认定可以适用当事人合同中的仲裁条款,因此该案将转为仲裁。因此,目前尚无法了解该案将如何影响定价算法的应用。

 

6)侵犯名誉和以虚假事实侵犯隐私(私人部门):Seaton v. TripAdvisor, 728 F.3d 592 (2013)。原告指控被告的“卫生条件最差酒店”名单侵害了原告的名誉权,也侵犯了原告的隐私权。法院判定这份名单“显然是无法验证的夸张修辞”,理性的个人不会将其与利用消费者评价作为事实客观评价指标的排名系统相混淆。尽管被告采用的方法是“一个糟糕的评估指标”,但它并未达到被认定为侵害名誉权的条件。第六巡回上诉法院后来维持了这一判决。

 

7)正当程序——歧视(私人部门):DeHoyos v. Allstate Corp., 240 F.R.D. 269 (W.D. Tex. 2007)。有的法院受理了指控有关算法违法地对特定受保护群体产生差别影响的诉讼。在该案中,法院裁定原告指控被告利用特定的保险评分算法,对少数族裔产生了差别影响,这一指控可以成为让原告加入集体诉讼的充分理由。

 

8)违约与信义义务的过失(私人部门):Batchelar v. Interactive Brokers, LLC, 751 F. App'x 55 (2d Cir. 2018)。原告系一名投资者,他的保证金账户因为经纪机构的算法而被强制平仓。他也指控该企业违约,“采取的强制平仓措施商业上看是不合理的”。法院驳回了原告的部分诉讼请求,但是将指控存在过失的诉讼请求发回进一步审查。该案表明,有的法院更倾向于判定雇员和组织对算法所作的决定负责。

 

9)分配政府福利的正当程序(政府部门):T. v. Bowling, No. 2:15-CV-09655, 2016 (S.D.W. Va. Sept. 13, 2016)。原告声称,因为算法所考虑的相关因素和算法的总体方案并不向公众公开,政府在确定福利变更时使用的算法剥夺了他的正当程序权利。法院判定,“案卷中并没有说明哪些因素被纳入APS算法、如何加权各项因素,或APS在生成 I/DD豁免项目每位成员的个性化预算时所采用的 APS算法的总体方法的信息。简言之,我们根本无从确定APS算法是如何生成豁免项目每位福利领受人的个性化预算的。”基于这一原因,法院拒绝作出简易判决,因为正当程序原则要求政府根据“以合理和一致的方式适用的”并且“可以确认的标准”作出福利决定。

 

10)刑 事 司 法 的 正 当 程 序 (政 府 部 门):United States v. Booker, 125 S. Ct. 738 (2005)。最高法院判定,在决定量刑的算法中使用的因素只能是那些已经向陪审团证明可以排除合理怀疑的因素,任何其他因素都必须排除在外。

 

11)行政合规(政府部门):Hughes v. Bos. Sci. Corp., 631 F.3d 762 (5th Cir. 2011)。该案中,原告指控被告违反了FDA的报告规定。原告提交证据证明被告采用了一个算法来确定其医疗器械造成的何种烧伤需要向FDA报告。被告在 20022008年间每年向FDA披露的裁量中都包含了其算法而没有产生争议,但之后被要求停止使用。法院认为原告的证据强烈表明该算法不符合 FDA的规定,FDA 2008年之前对该算法的沉默并不构成默认的批准。该案体现了法院在某种程度上并未将算法视作全新、自成一格的(suigeneris)议题,而是将其置于已有法律要求的背景下加以评估。

 

12)行政合规(政府部门):Jiminez v. Credit One Bank, N.A., 377 F. Supp. 3d 324 (S.D.N.Y. 2019)。原告指控被告违反了《电话消费者保护法》(Telephone Consumer Protection Act),因为被告采用了自动化拨号算法,拨打了原告的电话多达 380次。当事人对于这一拨号算法是否可以合理归类为联邦通信委员会的某些裁决中所指的预测性拨号系统提出质疑。法院裁定该算法可以构成前述预测性拨号系统。其对什么构成“预测性”算法所下的定义是非常宽松的,认为拨号软件可以在没有人为干预的情况下拨打号码。关于该案,应建议相关监管机构在某些空间内对于可被允许的算法类型进行严格的控制。

 

四、州和地方政府的行动

 

在美国,对算法的治理大量发生在州和地方政府一级,他们正在想办法应对新兴技术所带来的挑战,而很多案件中的原告也在利用已有的普通法以支持他们在州法院提出的诉讼请求。无论在民事还是刑事领域,各类规章都在同时影响着私营部门和政府对算法的利用。

 

(一)对政府部门适用的州和地方政府的法律和规章

 

各州立法机构正越来越多地通过立法规范政府在各种场景下的算法应用。其中最引人瞩目的活动领域或许当推自动驾驶汽车:州立法机构全国会议(National Conference of State Legislatures)的数据库有关自动驾驶车辆的州和地方规章数据表明,到目前为止,美国 50个州中已有 40个州通过了法律或行政命令规制自动驾驶汽车。这些政策文件的内容包括允许自动驾驶车辆在特定环境和特定道路上行驶,鼓励自动驾驶车辆开发商与州监管机构合作开发试点项目以确保自动驾驶车辆的安全和发展等。有些州已经成立了“咨询委员会”或者类似的机构来协调监管者以更好地为政府应对自动驾驶车辆技术的发展做好准备。其他各种形式的立法包括:

 

1.一般性的算法问责

 

2017年,纽约市议会成为首家通过算法透明法案的地方立法机构。纽约市 2018年第 49号法设置了“算法问责特别工作组”(Algorithmic Accountability Task Force),负责调查市政府使用算法的情况,并就如何加强纽约市算法应用的公共问责提出建议。纽约市政府利用各种算法完成众多任务,包括在刑事调查、教师评估、消防、公共住房、发行食品券等工作中分析 DNA证据。难题是,作为商业机密的算法和作为政府程序的算法之间在要求上显然存在着相互冲突的关系,作为政府程序的算法对公众来说应该是透明的。继纽约之后,华盛顿州的两项法案(HB 1655SB 5527)将为政府采购和利用自动决策系统制定指导方针,以保护消费者、提高透明度和增强市场的可预测性。

 

2.社会服务的优先次序

 

其他州的法律涉及到了政府资源的优先次序和分配问题。例如,佛罗里达州的 iBudget系统就是一种基于算法的服务,它允许残疾人选择对他们很重要的个性化服务,同时也帮助行政机关遵守相关联邦和州的法律。此外,佛罗里达州儿童和家庭部( Florida Department of Children and Families)已经开始使用基于公开信息的数据分析和数字算法,对家庭进行画像分析,确定相关可能预测或防止虐待儿童的因素。该算法因为不准确和存在偏见而受到批评。佐治亚州更新了社会服务相关立法,允许该州的社区健康委员会(Board of Community Health)制定规章,就有关特定健康服务的费用报销明确新的复议程序。该法的修订回应了新算法应用相关的争议。

 

3.刑事司法与公民权利

 

多个州和地区已经认识到通过限制政府对人工智能的利用,特别是在刑事执法的场景下的利用来保护公民权利的重要性。旧金山市议会颁布了《禁止秘密监视条例》(Stop Secret Surveillance Ordinance),禁止包括警察在内的任何政府实体,在该城市辖区内使用人脸识别功能。该条例还要求该市的各部门采购任何类型的监控技术,或者签订协议接受通过监控技术取得的信息时需报监督委员会( Board of Supervisors)批准。其他州的立法机关也提出了类似的法案。例如马萨诸塞州的立法机构正在考虑禁止政府使用人脸识别和其他远程生物识别监控系统(s1385);萨默维尔市议会也在考虑禁止使用人脸识别技术(proposed ordinance 208142)。

 

(二)对私人适用的州和地方立法和规章制定行动

 

除了限制政府行为外,州立法机关和机构还颁布了法律和政策,规制私人公司在各种场景下的算法应用。例如,在数据隐私方面,《加州消费者隐私法》(the California Consumer Privacy ActCCPA)让加州人民有权更多地了解其个人数据的收集以及这些数据向谁出售和披露等情况。该法规定加州公民有查阅其个人数据以及禁止出售其个人数据的权利,并保护加州公民不因其行使相关权利而受到歧视或报复。该法类似于欧盟《通用数据保护条例》(GDPR),但也存在一些重要差别,包括法律的适用范围,对“个人数据”的定义,所规定的用户权利,以及数据安全和执法措施的范围。《加州消费者隐私法》主要适用于在加州境内“经营业务”的,收集消费者数据和满足特定标准的任何商业或者非营利组织。尽管《加州消费者隐私法》和欧盟《通用数据保护条例》都调整特定的地理范围,但是欧盟市场的规模和加州作为众多全球性技术公司总部所在地的重要地位(以及其市场的规模),意味着这两部法律都会对跨国经营的技术企业产生重要的影响。它们也都会影响和催生其他法域的隐私立法。

 

其他形式的隐私规章在适用范围上更为具体。例如,有的州(包括华盛顿州、德克萨斯州、加利福尼亚州、阿肯色州、纽约州和伊利诺伊州)已经开始积极限制和规制生物数据领域,包括限制某种形式的生物数据的收集和识别。此外,华盛顿州、密歇根州、加利福尼亚州、马萨诸塞州、亚利桑那州和佛罗里达州也已经开始试图采取类似的措施。

 

(三)州普通法对政府实体的适用

 

以下所举例子是州法院的判决,它们调整不同州辖区内政府实体应用算法的情况。这些判例提供了公民个体和非国家组织如何型塑算法治理发展的例证:

 

1)欺诈检测的正当程序(密歇根州):Bauserman v. Unemployment Insurance Agency, No. 156389 (Apr. 5, 2019)。密歇根州一起待决的案件涉及密歇根综合数据自动化系统(Michigan Integrated Data Automated System,简称MiDAS),该算法系统由州政府从第三方供应商处采购,用于对被指控的福利欺诈进行裁决和处罚。该系统可以自动检测出个人记录中的任何数据差异或不一致的情况,从而作为非法行为的证据。2013 10月至 20158月期间,该系统错误地认定超过 40000名密歇根州居民涉嫌欺诈。这些居民通过集体诉讼的方式起诉了该州,指控扣留退税款和扣罚工资的做法违反了正当程序原则。

 

2)刑事证据标准(纽约州):People v. Belle, 47 Misc. 3d 1218(A), 16 N.Y.S.3d 793 (N.Y. Sup. Ct. 2015)。一名刑事案件的被告试图排除公诉方提供的与 DNA相关的概率分析证据,他对公诉方在确定 DNA属性时所采用的统计方法提出质疑。美国各州发生的此类案件也越来越多。在本案中,法院驳回了原告请求,因为被告有权检查讼争的算法。

 

3)刑事证据标准(纽约州):People v. Lopez, 50 Misc. 3d 632, 644, 23 N.Y.S.3d 820, 829 (N.Y. Sup. Ct. 2015)。本案也涉及被告质疑算法的应用,该算法用于确定被告的DNA出现在一件证据上的可能性。法院裁定该证据是可采纳的,因为被告有权获取该案讼争的算法。不过,法院也裁定州公诉人向被告披露输入该算法的原始数据。

 

4)刑事证据标准(堪萨斯州):State v. Shively, 268 Kan. 573, 999 P.2d 952 (2000)。本案中法院裁定基于算法的测谎结果不可采纳。该算法利用生理数据来判断某人是撒谎还是说真话。法院对证据经过审查认定,将测谎仪计算机化并不能提高其准确度。

 

5)量刑(威斯康星州):State v. Loomis, 2016 WI 68, 371 Wis. 2d 235, 881 N.W.2d 749。在本案中,被告对使用算法“风险评估工具”确定其量刑提出质疑,因为他无法使用该算法。州最高法院认为,利用风险评估工具是可以允许的,因为该案讼争的算法即使被告无法获得,也是来自公开获取的信息,而且被告可以对算法应用后的量刑结论提出异议。其他州也作出类似的判决,比如 Louisiana v. Hickerson 案,原告根据 Palantir设计的名为 Gotham的风险评估算法被判定有罪,但是未获准审查该算法。他提出的重审动议被驳回,因为公诉人否认他是基于 Gotham算法而被定罪;在Lynch vFlorida案中,因为某算法将原告与一位可卡因贩卖者的照片实现匹配,他因为这一匹配结果而被定罪。

 

6)社会服务的获得(佛罗里达州):G.B. v. Agency for Persons with Disabilities, 143 So. 3d 454 (Fla. Dist. Ct. App. 2014)。某一患有慢性残疾的群体对该州行政机关采用iBudget算法决策程序作出个人福利认定的做法提出质疑。法院认为,iBudget的立法不允许通过政府的算法削减福利。

 

7)行政程序(弗吉尼亚州):Volkswagen of Am., Inc. v. Smit, 279 Va. 327, 689 S.E.2d 679 (2010)。一家汽车批发商利用一种算法将汽车分配给全州的汽车经销商。弗吉尼亚州机动车管理局((DMV)制定了一项规则,其中采用的算法对全州范围的新车分配提出了某些要求。州机动车管理局认定,上述配售不公平地影响了较小的汽车经销商,因此是非法的。而法院则判定机动车管理局的规定过度含糊不清。

 

(四)州普通法对私人部门实体的适用

 

以下所举的州法院判决展示了公民个人和非政府组织在以何种方式开始形塑算法治理的发展:

 

1)证券欺诈(纽约州):People ex rel. Schneiderman v. Barclays Capital Inc., 47 Misc. 3d 862, 86364, 1 N.Y.S.3d 910, 91112 (N.Y. Sup. Ct. 2015)。法院审查了被告银行在高频交易中算法应用的实际效果。法院裁定,作为第一次审理的此类事务,该算法与银行推销其服务的方式不同。

 

2)医疗事故证据标准(纽约州):Hinlicky v. Dreyfuss, 6 N.Y.3d 636, 848 N.E.2d 1285 (2006)。原告声称麻醉师有医疗过失。法院允许被告提出解释麻醉师的决策过程、展示“注意标准”的算法指南作为证据。法院裁定该算法属于可采证据。

 

3)公用事业监管(马萨诸塞州):Commercial Union Ins. Co. v. Bos. Edison Co., 412 Mass. 545, 591 N.E.2d 165 (1992)。在本案中,法院允许原告提供它们开发的算法作为证据,该算法可以确定被告公用事业公司因蒸汽表故障而多收取了他们的费用。

 

五、非政府组织与行业自律监管

 

除了通过立法、行政规章和司法判决进行治理外,私人主体也在型塑算法治理的对话和制度发展方面发挥了重要作用。

 

(一)非政府组织

 

美国的非政府组织在技术政策、公民权利和刑事司法改革等领域开展工作,已经成为提出指导未来社会算法方向的政策和原则的重要力量。非政府组织还与政府实体和私人公司合作设计政策,建立新的制度以应对人工智能的扩散问题。有些组织主要从事研究和提高认识,而另一些组织则更直接地致力于影响法律和政策。非政府组织通过揭露可能不合理的的算法应用,型塑算法合理应用的公共辩论,对“治理”算法发挥了强有力的影响。从这一意义上来说,非政府组织可以对行为不端的主体施加名誉上的惩罚。示例如下:(1)人工智能伙伴关系(Partnership on Artificial Intelligence):该伙伴关系整合了研究机构、私人公司和非政府组织的力量,致力于为了公共利益促进和引领有关人工智能未来的讨论。该伙伴关系的成员基础是超过 50%以上来自世界各地的的非政府组织;(2)消费者报告组织:敦促各公司和政策制定者让民众对于自身的个人数据拥有更多的控制权,以适应电子技术和算法应用的普遍化;(3)美国公民自由联盟:与消费者报告组织一样,随着自身的发展,它们承担的使命也在不断变化,涉及现代科技的影响以及涉及使用算法影响个人权利的诉讼案件,包括隐私、数字权利和刑事司法等领域;(4Upturn:其重点是公平金融、刑事司法和数字权利领域的法律和政策发展;(5)人工智能现代研究所(AI Now):是一个跨学科的组织,研究有关人工智能对社会影响的法律和政策制定,重点关注四个关键领域:权利和自由、劳动和自动化、偏见和包容,以及安全和关键基础设施,并就此发布报告;(6)美国程序代码组织:该组织利用新兴技术和科技公司的精神,利用数字技术扩大各级政府的有效性和可访问性;(7)民主与技术中心:该中心帮助制定与算法和公民自由有关的政策建议;(8)数据与社会研究所:该研究所致力于促进公众对以数据为中心的技术和自动化之社会影响的理解。

 

(二)行业自律监管

 

企业深受消费者反馈和雇员反弹的影响,它们越来越多地与非政府组织合作,以保护隐私和不歧视等公共价值观的方式形塑算法技术的发展和应用。这种形式的“自我治理”在更广泛地塑造算法使用的努力中发挥着重要作用。示例包括:(1)谷歌人工智能原则:该公司尝试了各种机制以帮助确保伦理考量在商业决策中发挥更大作用;(2DeepMind:发明 AphaGo DeepMind公司有着自己的伦理和社会部,负责将公司追求公共利益的更广泛的目标制度化,虽然该公司签署了各种伦理相关的承诺,但它也因某些商业关系和实践而受到批评;(3)微软:科技巨头微软创建了许多研究部门专注于研究新兴技术对社会的伦理影响,其中包括命运实验室(fairnessaccountabilitytransparencyand ethics in AIfate),其目标是促进具有创新性和符合伦理要求的计算技术;(4Axon(前身为 taser):Axoni新设了人工智能和警务技术伦理委员会,以指导公司的人工智能开发和预期应用;(5IBM2018 9月,IBM发布了开源的度量工具包AI fairness 360,用于检查数据集和机器学习模型是否存在偏差。

 

六、结语

 

本文概要介绍了美国算法治理所采用的各种政府和非政府机制,内容涉及不同的管辖区、产业和场景。正如上述实例所表明的,政府机构、法院和私人主体正在意识到,虽然算法治理通常契合现有的法律和监管结构,但是算法应用有时也需要对现有法律的适用提出新的论点,需要推进新型监管的创新思维以满足更广泛的公共价值和监管目标。此外,参与治理算法的各类主体越来越质疑“基于数据”或“基于证据”的算法决策是否会带来更准确、公平或高效的决策和策略的观念。例如,法律开始承认,生物识别工具并非绝对正确,算法本身及作为其基础的数据集也可以发现存在偏差。因此,美国的算法治理是一个高度动态和不断发展的过程,将持续受到一系列行为主体和法律工具的推动。

 

原文刊载于《环球法律评论》2020年第3

转自“《环球法律评论》公众号”