第2章 导论

一、美国人工智能技术的发展与应用

云计算、大数据、物联网、移动支付等人工智能技术[1]的日渐蓬勃,不仅重塑了物理世界中人类的交往方式,而且激励了新一轮工业革命的破茧而出。作为第三次工业革命(计算机及信息技术革命)的最大获益者,在新一轮技术革命面前,美国依旧试图捍卫其固有的科技霸主地位。

早在奥巴马执政时期,美国政府便陆续发布了《大数据:把握机遇,守护价值》(Big Data:Seizing Opportunities, Preserving Values)[2]、《为人工智能的未来做好准备》(Preparing for the Future of Artificial Intelligence)[3]、《美国国家人工智能研究和发展战略计划》(The National Artificial Intelligence Research and Development StrategicPlan)[4]、《人工智能、自动化和经济》(Artificial Intelligence, Automation, and the Economy)[5]等报告,旨在激发公众意识,宣示继续维护美国科技领先地位的政策与决心。

尽管特朗普上任后并没有表现出类似奥巴马的狂热,但是仍然延续了促进人工智能技术发展的方向选择。为推进技术应用的基础建设,美国联邦通信委员(Federal Communications Commission, FCC)会正在推行一项5G加速计划(5G FAST Plan)[6],以扩大美国的5G技术优势。2018年5月,白宫下设的科学技术政策办公室(Office of Science and Technology Policy, OSTP)主办了美国人工智能产业白宫峰会(White House Summit on Artificial Intelligence for American Industry),此次峰会召集了多名政府高级官员、顶级学术机构的技术专家、产业研究实验室负责人和美国商界领袖,集中讨论人工智能的发展前景,以及实现这一前景所需的政策,从而保持美国在人工智能时代的领导地位。[7]会后,白宫组建人工智能特别委员会(Select Committee on Artificial Intelligence),以关注人工智能的研究和开发,特别是学术界和产业界的合作关系。[8]同年9月,美国国防高级研究计划局(The Defense Advanced Research Projects Agency)宣布投资超过20亿美元,开启下一个人工智能运动(AI Next Campaign)[9];美国众议院下设的信息技术小组委员会(Subcommittee on Information Technology Committee)发表了《机器的崛起:人工智能及其对美国政策日益增长的影响》白皮书(Rise of the Machines:Artificial Intelligence and its Growing Impact on U.S.Policy)[10],建议将人工智能的研发和技术人才的培养列为国家优先发展事项。次年2月,特朗普通过行政命令启动了“美国人工智能倡议”(The American AI Initiative),意图推动美国联邦、学术界和私营部门的人工智能研究与监管工作,维护美国在全球人工智能领域的领导地位(leadership in AI)。[11]随后,美国国防部也发布了《2018年度人工智能战略概要:利用人工智能促进我们的安全和繁荣》(Summary of the 2018 Department of Defense, Artificial Intelligence Strategy:Harnessing AI to Advance Our Se-curity and Prosperity)[12],重申人工智能是维护国家安全的重要技术,必须加快人工智能技术在国防部署中的应用。2019年6月,美国总统办公室公布了人工智能特别委员会(Select Committee on Artifi-cial Intelligence)撰写的报告:《美国人工智能研究和发展战略计划:2019更新版》(The National Artificial Intelligence Research and Development Strategic Plan:2019 Update)[13],该报告具体提出了八项策略,以推动美国人工智能的安全良好发展。[14]虽然美国政府的党派组成伴随着民选结果而不断更替,但美国始终未曾放弃追求成为下一次科技革命霸主的机会。

自拜登就任总统后,美国政府就人工智能制定官方政策的态度愈发积极。2021年1月1日,脱胎于2020年版人工智能倡议行动的《人工智能倡议法》(National AI Initiative Act)正式生效。该法律的使命是确保美国在人工智能研发方面的持续领导地位,在公共和私营部门开发和使用值得信赖的人工智能应用,并为经济和社会所有部门的人工智能系统汇聚世界范围的人才提供准备;5月26日,美国国防部发布了《负责任的人工智能应用》(Implementing Responsible Artificial Intelligence in the Department of Defense)备忘录,旨在通过人工智能设计开发和部署应用以增强国防军事实力,并提出负责任的人工智能道德准则,具体包括负责任的、公平的、可追踪的、可信任的、可管理的;[15]6月10日,拜登总统宣布成立国家人工智能研究资源任务组(National Artificial Intelligence Research Resource Task Force),[16]以绘制通过拓宽资源和教育工具获取途径、促进人工智能创新和经济发展的规划蓝图;9月8日,美国商务部(U.S.Department of Commerce)成立国家人工智能咨询委员会(National Artificial Intelligence Advisory Committee),[17]期冀通过人工智能技术刺激经济发展;10月22日,总统科学顾问兼白宫科学技术政策办公室(OSTP)主任埃里克·兰德(Eric Lander)和白宫科学技术政策办公室下设的科学社会处(OSTP Deputy Director for Science and Society)副主任阿朗德拉·纳尔逊(Alondra Nelson)发文建议创立人工智能世界中的“权利法案”,从而确保数据驱动的技术能够反映和保证个人权利与自由[18];10月28日,美国平等就业机会委员会(Equal Employment Opportunity Commission)发起一项倡议,以确保人工智能和其他用于招聘决定的算法工具符合联邦反歧视法[19];11月15日,美国国防创新部门发布了“负责任的人工智能指南”(Responsible AI Guidelines),旨在将人工智能道德原则适用于其技术模型和与之相关的商业模型。[20]2022年4月18日,美国能源部创建人工智能促进委员会(Artificial Intelligence Advancement Council),负责协调人工智能活动,并确定能源部人工智能的优先事项,进而保障国家安全、提升经济竞争力。由上可见,美国官方始终将维护美国在人工智能研发领域的领导地位这一目标奉为圭臬,并积极在各类行政部门中设置人工智能工作小组,有针对性地引导部署人工智能的设计和发展。

在理想维度,无处不在的高速互联网与各类智能应用将现实世界与虚拟世界连接,个人可以足不出户地享受来自世界各地的便利性技术服务,个人的社交画像、工作画像、消费画像等不同侧面集中形成了数字人格,国家的行政管理也必然走向算法化与智能化。在事实维度,人工智能的研究成果正在源源不断地被转化为惠及民众的应用技术。著名智库布鲁金斯学会(Brookings Institution)的会长约翰·R.艾伦(John R.Allen)和副会长达雷尔·M.韦斯特(Darrell M.West)认为,人工智能技术正在改变美国公民的生活,具体包括医疗、刑事司法、交通运输、智慧城市等方面的技术应用。[21]

在医疗方面,人工智能工具简化了复杂的医疗诊断过程,提高了诊断结果的准确性,甚至预测了未来发病的可能性。通过深度学习,计算机可以识别出正常的和不正常的淋巴结,从而提高了诊断的准确性、降低了诊断的人工成本。[22]在对抗新冠肺炎疫情中,约翰斯·霍普金斯大学的工程师发明了COVID-19传感器,以弥补PCR测试需要准备样品和快速抗原检测结果的不准确缺陷。[23]此外,人工智能工具也可以应用于充血性心力衰竭的预测,减少患者住院的次数。[24]在未来的场景中,通过人脸扫描技术,人工智能甚至可以识别个人基因中的缺陷、预测发病的可能性与个人的寿命。[25]

在司法方面,大数据分析系统可以预测个人犯罪的可能性,脑部扫描等技术使政府公务人员的搜查(search)能力大幅提高,而量刑指南系统则为司法量刑提供了基于大数据分析的建议。具体而言,芝加哥市开发了一项由人工智能驱动的“战略主题清单”(Strategic Subject List)项目,通过收集个人的年龄、犯罪活动、毒品记录和帮派关系等数据,利用大数据分析识别出那些未来可能因犯罪被逮捕的个人。[26]美国国土安全部(U.S.Department of Homeland Security)同样承认了运用SteamView、SpeechView和Horus等技术,将碎片化信息整合后形成指向明确的证据链,成功破获了多起跨国人口走私案件。[27]而在一系列实验中,科学家使用脑功能磁共振成像(fMRI)以及其他的脑部扫描技术,推测受测者正在思考或者回忆的单词、图片。在不久的将来,这类技术将不可避免地用于法律的执行,司法部门甚至可能使用脑部扫描结果作为搜查证据。[28]在具体量刑场景中,对惩教人员适用选择性制裁的管理分析(COMPAS)可以为法庭提供参考性的量刑结果,[29]相较自然人主观的种族歧视,人工智能系统在量刑时可能更为中性,但也可能复刻人类社会的固有歧视。

在交通方面,自动驾驶车辆开始成为科技公司研究的重点。对于自动驾驶车辆而言,车辆本身的物理性能已经不再是关键,车辆内置的智能技术反而成为关键。只有凭借着自动导航、自动刹车、自动换道、实时数据分析等先进技术,自动驾驶技术方能实现。[30]在更进一步的设想中,未来的交通系统将完全由人工智能系统控制,共享式自动驾驶车辆将取代私人车辆,个人可以提前预约用车的时间与地点,自动驾驶车辆将按时并自动上门提供服务,从而减少交通的拥堵与环境的污染。

在智慧城市方面,多数美国城市正在使用人工智能来改善市政服务。辛辛那提正在使用数据分析来优化医疗应急响应系统。新的系统通过分析呼叫的类型、位置、天气以及过去类似的案例等因素,可以为调度员推荐最优的处理方案[31];西雅图正在使用人工智能来促进能源与资源的可持续发展;波士顿启动了“市政厅行动计划”(City Hall To Go),以确保服务不足的社区得到充足的公共服务。此外,波士顿还部署了摄像头和感应线圈来管理交通,并安装了声波传感器以识别枪声。[32]事实上,66%的美国城市正在投资智能城市建设,其中最热门的应用包括智能电表、智能交通信号、Wi-Fi售卖亭和人行道上的传感器。[33]人工智能在改善市政服务的同时,也在维护公共安全与秩序。

然而,在人工智能愈走愈远的路途中,也伴随着未能预料的负面影响。某些大型公司的私人力量,甚至可以媲美国家力量。比如,社交媒体平台(如Facebook)可以通过选择性的内容推送,影响政治竞选的结果。在更为广阔的场景中,数据与隐私似乎成为法律的单选题,黑箱操作的算法依旧难逃种族歧视的浸染,无人驾驶车辆等自动化机器的应用冲击着个体安全,甚至可能波及法律人格的定义。这使人们不禁追问,如何平衡人工智能技术的发展与个人基本权利的保护?有鉴于此,下文将梳理美国在此领域遭遇的挑战及其作出的回应,试图辨明美国科技创新与基本权利保护的平衡策略,为我国相关学术研究提供一份智识参考。

二、美国人工智能领域的风险与挑战

以数据为给养、以算法为核心、以自动驾驶为前沿运用的人工智能技术正在向法律乃至全部社会系统发起冲击。从基本权利保护的视角出发,人工智能产业的兴起导致了个人数据隐私的单薄,黑箱算法的精准造成了个人平等权的模糊,自动驾驶的应用提升了侵犯个人生命健康权的风险。而权利冲突图景所遮蔽的是人工智能对于传统法学理论的挑战。

第一,个人数据隐私的失控。保护个人数据的根本缘由在于个人隐私意识的兴起。个人的姓名、年龄、婚姻状况、家庭住址、工资收入、车辆登记等数据,正在悄无声息地被收集与被使用。电子数据记录着公民的全部足迹,[34]智能机器执行着过去无法想象的定位追踪功能。而当大型科技公司能够毫无忌惮地开启移动设备的麦克风甚至摄像头时,个人的隐私似乎沦为空洞且无效的法律词语,“心灵的平静”(peace of mind)[35]只能是隐私权的美好设想,现实空间被云端空间监管并操控,平行世界中的《西部世界》正在日复一日地上演。有鉴于个人数据与隐私的密切联系,美国并没有选择像欧盟一样创设崭新的数据权利,反而是将个人数据的保护纳入信息性隐私权[36]的内涵。

然而,信息性隐私权是否足以妥善解决个人数据的保护问题?这一疑问值得深究:首先,信息性隐私权在美国是一个相对而言较为年轻的法律术语,并且随着社会环境的变化而不断地被重新赋予内涵。举例而言,数据泄漏通知制度在2003年才被立法确认。[37]其次,信息性隐私权的含义必须通过具体的语境予以理解,法院的解释方式可能与最初的立法初衷并不相同,这导致信息性隐私权的内涵始终处于动态的变化之中。最后,个人数据的不当收集与使用,不仅影响着宪法隐私权,还可能影响着宪法的基本价值,[38]而如何在“智能+”时代中重新理解宪法的价值,并不是一个能够轻易回答的问题。

第二,黑箱算法的平等权隐忧。不透明的算法(也称黑箱算法)可能导致个体的平等权被抹杀。算法的不透明性一直以来深受质疑,不透明的算法使公众只能看到输入和输出结果,并不能获知输入和输出结果中的因果联系。犹如柏拉图的“洞穴比喻”,公众只能看到算法所投射出的结果,并不能知悉算法的本质。黑箱算法虽然提升了社会运转的效率,但无论是在工作场所还是在日常生活中,公众都难以逃脱黑箱算法的负面影响。公司人力资源主管可能通过数据收集与黑箱算法,对个别员工的录用、升职、辞退等环节施加不公评判;[39]金融、声誉的黑箱模型同样正在危害着个人的正常生活。[40]相关规制框架的缺乏,使错误的数据、无效的假设和有缺陷的模型无法被及时更正,黑箱算法由此成为法律灰色地带中的狂欢者。

退一步而言,即使算法不像人类决策者那样容易受到偏见的影响,但是表面中立的算法也会产生歧视的结果,因为训练和操作算法的主体是充满歧视的现实世界。[41]歧视可以通过现实世界的数据感染算法本身,导致算法复制了现实世界中的歧视与不平等。此时,平等权的困境不仅源自算法的不透明性,更源自现实世界的不平等。质言之,智能时代的算法歧视,其实可追溯至人类大脑中的歧视与不公。因此,破解平等权困境必须从算法的透明度与现实世界的平权行动双向展开。

然而,在规制算法透明度的进程中,美国遇到了抵御算法规制的一张“王牌”:言论自由。在多起案件中,搜索引擎公司以《美国宪法第一修正案》的言论自由为“挡箭牌”,辩称检索结果的排名是公司的自由言论,并且获得了法院的支持。[42]此时,界定算法是否属于发言者的自由言论,成为算法规制的前置性程序。而这一前置性程序招致了大量的批评。有评论家指出,运用《美国宪法第一修正案》限制公众对互联网的理解与管制,无疑是极具讽刺意味的。[43]言论自由不应成为算法歧视、经济宰制等异化现象的“挡箭牌”。维护算法控制者的利益并不能忽视公众的知情权,更不能损害作为基本权利的平等权。此时,如何平衡算法控制者的正当权利与公众的知情权、平等权,如何逐层递进地揭开算法的真实面容,如何实现技术与权利的正和博弈,都成为人工智能向法律系统提出的挑战。

第三,自动驾驶车辆的安全风险。作为一项极有可能在未来被大范围推广的智能技术应用,对自动驾驶车辆的褒奖与质疑同在。自动驾驶车辆所引发的质疑主要集中在技术安全与法律责任领域。自动驾驶车辆的应用离不开技术安全的支持,美国多数州已经通过了相关立法,要求上路测试的自动车辆必须达到一定的安全性能标准。[44]尽管如此,特斯拉的自动车辆进行道路实验时,依旧发生了多次车祸,并且造成了其他车辆上的人员的死伤。[45]面对“电车难题”时,该如何选择自动驾驶车辆是一项争议激烈的道德伦理命题;当出现无法避免的伤亡时,如何进行责任分配进而成为讨论的焦点,传统的侵权责任体系在自动驾驶车辆面前已经黯然失色,一旦发生致命车祸,自动驾驶车辆(机器人)本身是否可以承担民事和刑事责任?如果答案是可以承担,法律上的“人”的定义将被重新改写,宪法上的“人格尊严”的涵摄范围也将出现波动。

第四,基本权利理论的重新解读。伴随着技术的不断进步,人工智能的发展与基本权利的冲突日渐显著,基本权利的理论体系出现裂痕。基本权利的侵犯主体日益转为非国家集体行动者,智能技术激化了权利冲突的表现,而基本权利主体范围能否纳入机器人主体的问题,更是向人的尊严发起根本性挑战。以国家行为理论(state action doctrine)为例,传统宪法学理论认为,基本权利的约束对象仅为国家,但当公民的基本权利遭受私人侵害且没有直接的部门法规则予以调整时,美国联邦最高法院会运用国家行为理论,将与公权力有关的私人行为解释为国家行为,从而接受宪法的调整与约束。然而,人工智能使非国家集体行动者的权力开始不断膨胀,甚至在某些领域超过国家权力。不言自明的是,无论是私人主体还是国家主体,一旦拥有巨大的权力,就必须受到制约与监管,否则,只能恶化为失控的权力。美国著名宪法学家马克·塔什内特(Mark Tushnet)认为,国家行为理论的关键并不在于判断私人行为与国家行为之间是否存在关联,真正的要点在于,国家到底应对公民履行什么义务?[46]延续这种思路,假设某一科技公司侵犯了个人的数据隐私,此时不仅需要厘清科技公司的行为与国家行为之间的关联,而且需要明确如何弥补已经发生的损害结果以及预防未来可能的损害行为。因此,为了控制非国家集体行动者力量的不断扩张,国家必须通过公权力对其进行有效的监管。然而,如何实现有效的监管、如何打造技术权力监管机制、法律又应该扮演什么角色,都成为技术进步的不断追问。

三、美国人工智能领域的基本权利保护问题

人工智能的发展与基本权利产生了龃龉,新兴技术的发展尤其可能与美国宪法第一、第四、第五和第十四修正案所规定的权利产生冲突。而产生这些问题的原因在于,“私营公司对言论自由和隐私的权力超过了总统、国王或最高法院法官”[47]。因此,私营部门、社会公众需要更多地承担起相应的责任。当然,这并不意味着国家义务的消失,而是需要重新考虑国家监管角色的定位。以此为背景,下文将分别介绍在信息隐私[48]、黑箱算法和自动驾驶领域中,美国学界关于技术创新与权利冲突的探讨情况。

第一,信息隐私的法律保护。信息隐私,也即对个人数据保护的探讨,是美国法学界关于人工智能探讨的主要焦点,而隐私的第三方原则(third party doctrine)又是焦点中备受争议的关注点。苏珊·W.布伦尼尔(Susan W.Brenner)认为,宪法隐私保护中最具争议的是数据隐私的保护,特别是存在于第三方的纪录。[49]在United States v.Miller案[50]中,法院裁定,在个体主动移交给第三方(在此案中是一家银行)的数据中,不存在合理的隐私预期(no reasonable expectation of privacy)。三年后的Smith v.Maryland案[51]再次重申了隐私的第三方原则,判定客户定期自愿提供给电话公司的电话号码不受《美国宪法第四修正案》的保护。然而,随着第三方服务平台的迅速发展,越来越多的第三方收集了个人主动提供的信息,《美国宪法第四修正案》的这一漏洞正在迅速地扩大。不少学者建议修改,甚至推翻Miller案中的隐私第三方原则。迪安·加兰诺(Dean Galaro)认为,Miller案的裁决已经有40年没有动摇了,《美国宪法第四修正案》需要符合时代环境的重新解释。[52]布雷恩·芒德(Brain Mund)认为,根据隐私的第三方原则,即使社交媒体用户在加密保护页面中交流他们的信息,这些社交媒体的帖子中依旧没有用户的合理的隐私预期。[53]然而《美国宪法第四修正案》要求对个人数据进行更大限度的隐私保护,W.费思·麦克尔罗伊(W.Faith McElroy)直接建议最高法院推翻Miller案。[54]实践中,美国联邦最高法院也开始放弃隐私的第三方原则,将个人手机的定位信息纳入个人合理的隐私期待范围。[55]有鉴于此,海伦·尼森鲍姆(Helen Nissenbaum)提出了情境完整性(Contextual Integrity)理论,将对隐私的充分保护与特定的语境紧密联系在一起,要求信息的收集、传播与特定语境相适应,并遵守在特定语境中发布的支配性规范,[56]从而解决隐私第三方原则失灵的问题。

在上述原则性讨论之外,围绕信息隐私的探讨又细分为不同领域的信息隐私探讨,代表性主题有健康隐私、消费者隐私、教育隐私、雇员隐私等。由于对消费者身份主体的数据保护呈现主流态势,本部分将简要介绍消费者隐私保护的学界观点。首先,联邦贸易委员会承担了主要的保护消费者隐私的工作,但是联邦贸易委员会的表现并不是完美的。亚历克斯·博斯松(Alex Bossone)认为,联邦贸易委员会没有对公司的数据安全措施提供足够的指导,也没有充分保护直接受到数据泄露伤害的消费者。[57]由于隐私的伤害结果在多数情况下是主观的,不同消费者对待隐私的伤害结果可能态度迥异。埃琳·奥哈拉·奥康纳(Erin O’Hara O’Connor)建议,联邦贸易委员会在仲裁消费者隐私案件时,可以在机会成本和自付费用两方面设定一个有效的补救“价格”,使高隐私价值的消费者能够提出索赔,同时取消对低隐私价值消费者的索赔。[58]再者,实质损害的认定标准过于苛刻,尼古拉斯·格林(Nicholas Green)建议,法院需要引进一个灵活的损害认定标准。这种不那么严格的立场也可以适用于原告所称的非经济性和非物质性的抽象伤害。在没有最高法院明确指导的情况下,联邦地区法院应采用实质性的风险分析(substantial risk analysis)。[59]在联邦贸易委员会未能充分保护消费者隐私的空白之处,行业的自我监管继而“上位”以发挥功效。西诺纳·里斯托特(Sinoa Listokin)认为,行业对消费者数据隐私和安全的自我监管,被认为是对传统政府监管的一种灵活的替代和补充,但需要一个更为准确的隐私度量标准,从而评估行业监管对数据隐私的影响。[60]

在对不同领域的数据隐私的探讨之外,数据是否属于《宪法第一修正案》所保护的言论也是美国法学界的争议性问题。戴维·S.汉(David S.Han)认为,个人数据是中间价值(Middle-Value Speech)的言论。[61]而机器所输出的数据则可能因为被“编辑”成为言论。这一问题在黑箱算法部分将得到更为详细的讨论,在此不再多议。总而言之,信息隐私因为领域的不同而呈现出需求和保护的差异,但是其基础理论具有共通性。隐私第三方原则所展现出的不适应时代的特性,转而促成了情境脉络完整性理论适时而出。不同于欧盟数据保护机制的独立创设,美国以消费者为身份主体的数据保护延伸了联邦贸易委员会的监管与执行权能,以更为柔和与顺畅的方式开展数据保护的时代任务。而言论自由的辐射范围也拓展到数据属性,成为数据保护的波折曲目。

第二,黑箱算法的破题之法。我们正生活在一个由黑箱算法所创造的社会之中。正如阿齐兹·Z.赫克(Aziz Z.Huq)所言,美国正在通过算法不断优化其刑事司法的效率,预测暴力和犯罪的算法工具被越来越多地应用于警务、保释和量刑。[62]安妮·L.华盛顿(Anne L.Washington)认为,接受风险评估的个人无法推测算法如何对他们进行排名,因为他们不知道自己为什么被归类到某一组,也不知道控制排名的标准是什么。围绕风险评估算法的争议,暗示了正当程序可能是刑事司法系统自动化的成本。[63]理查德·沃纳(Richard Warner)认为,在算法预测一切的大数据时代中,谁控制了我们的数据,谁就控制了我们的生活。[64]如何保障算法以中立和非歧视的方式行事,避免算法独裁的出现,进而成为学界讨论的焦点。

算法问题出现的原因,一方面在于算法复刻了现实世界的偏见和歧视。数据本身不是中性的,当算法依赖历史数据时,可能将历史数据的偏见导入算法的过程,爱德华·桑托(Edward Santow)认为,人类偏见导致了算法歧视的持续存在。[65]另一方面在于算法透明度和问责制的缺失。詹姆斯·A.艾伦(James A.Allen)认为,现代算法的设计过程往往是由一个同构的群体来完成的,因而缺乏透明度、审计或监督。[66]由于上述双重原因,处理黑箱算法造成的平等权危机需要多维共进。

首先,纠正现实世界的歧视需要平权行动的继续展开,而差别性影响(disparate impact)理论[67]也可以被纳入算法纠偏机制。马克·麦卡锡(Mark MacCarthy)认为,研发者需要在开发阶段测试算法,并在使用算法时考虑潜在的偏差。这些不同的影响分析将被用于受监管的行业,以满足法律上的非歧视要求。[68]波林·T.金(Pauline T.Kim)认为,差别性影响理论需要进行适当的调整,从而应对数据市场中的分类歧视。[69]

其次,算法的透明模型是解决黑箱算法问题的重要方式。弗兰克·帕斯奎尔(Frank Pasquale)认为,透明度本身不仅是一个目的,而且是通往可理解性道路上的一个过渡步骤。[70]什洛米特·亚尼斯基-拉韦德(Shlomit Yanisky-Ravid)提出了一种新的人工智能数据透明模型,该模型侧重数据的公开,而不是初始的软件程序和程序员。该模式包括一个审计制度和一个认证方案,由政府机构或在没有政府的情况下的私人机构执行。该模式还包括建立公司责任的安全港,鼓励公司在没有大规模监管的情况下实施透明度自我管理。[71]

最后,综合性的管理框架对于提升算法透明度与问责而言不可或缺,算法公平的实现需要跨专业、跨领域的合作。以《多伦多宣言:保护机器学习系统中平等和非歧视的权利》(The Toronto Declaration:Protecting the right to equality and non-discrimination in machine learning systems)(以下简称《多伦多宣言》)[72]为基础,劳拉·斯坦尼拉(Laura Stanila)认为,要想减轻黑箱算法对个人权利的侵害,需要对政府使用人工智能制定更高的标准,包括公开采购标准、权利影响评估;在公司内部建立道德政策,并提升透明度、可解释性和建立问责制。[73]乔瓦尼·科曼德(Giovanni Comande)则认为,可以在算法生成过程中及时插入伦理原则,以减轻算法对于个人权利的负面影响。[74]此时,行政监管依然必不可少。安德鲁·塔特(Andrew Tutt)总结了美国食品药品监督管理局(Food and Drug Administration, FDA)过去管理新型药品的经验,认为应当由专业的行政管理机构承担起批准和监管算法的任务,某些类别的新型算法在没有专业的行政管理机构批准的情况下不得发布或销售。[75]

然而,算法规制遇到了言论自由这一“挡箭牌”,许多大型公司援引算法输出是言论自由作为依据,拒绝接受对算法的监管。以谷歌的搜索引擎排名结果为例,尤金·沃洛克(Eugene Volokn)和唐纳德·M.福尔克(Donald M.Falk)等学者认为,搜索引擎的编辑判断与报纸、指南做出的编辑判断非常相似,这些判断都是对用户可能感兴趣和有价值的内容的判断。所有这些编辑判断(editorial judgment)的实践都受到《美国宪法第一修正案》的充分保护。《美国宪法第一修正案》完全保护网络言论、完全保护编辑判断(纳入或排除哪些内容的选择)、完全保护关于非政治议题的事实和意见。虽然搜索引擎的结果是在计算机算法的帮助下创建的,但这并不会剥夺它们受《美国宪法第一修正案》保护的权利。因此,搜索引擎的结果是受到《美国宪法第一修正案》保护的。[76]

然而这一观点备受争议。温和派的斯图尔特·迈纳·本杰明(Stuart Minor Benjamin)认为,在言论自由条款的范围内,纳入基于算法的决策是一个自然而温和的步骤。[77]算法的出现可能会改变社会经济模式,也可能会改变法律解释的方式,但这一过程必然是循序渐进的。詹姆斯·格林梅尔曼(James Grimmelmann)认为,搜索引擎既不是被动、中立的网站言论渠道,也不是凭借自身能力说话的编辑,而是顾问(advisor)。[78]

反对派的声音更为尖锐。安德鲁·塔特认为,考虑的关键问题不是软件是什么,甚至不是它说了什么,而是它对社会意味着什么,以至于把它当作言论来对待。操作系统、搜索引擎和文字处理程序是否属于“言论”,取决于它们在我们的民主制度中所处的地位。因此,电子游戏受到言论自由的保护,不是因为它们传达信息,也不是因为它们像文学一样,而是因为它们是一种被社会文化认可的表达媒介。然而操作系统、文字处理程序,甚至搜索引擎,并没有被认为占据了类似的表达位置,至少现在还没有。[79]吴修铭(Tim Wu)则认为,一般来说,人们可以区分作为“言论产品”(speech product)的软件和作为“沟通工具”(communication tool)的软件。两者之间的界限也许并不完美,但如果要实现《美国宪法第一修正案》保护思想表达的主要目标,同时防止这一修正案被滥用,就必须在某处划定界限。而谷歌的搜索引擎与传统的新闻报社并不相同,谷歌的搜索引擎只是为个人提供了网站的链接,并没有资助或者出版网站的内容。[80]因此,谷歌的搜索引擎是沟通工具,谷歌并不能直接援引言论自由以保护搜索结果。

总而言之,黑箱算法的破题之路要从现实世界的平权行动与技术维度的透明问责双向展开。双向路径中的事前与事后规制方案都需要国家、行业与公众三方的参与。而言论自由的权利惯性庇护了黑箱算法的肆意独裁,成为美国当前实施算法规制的迫在眉睫的阻碍。

第三,自动驾驶的风险回应。自动机器的应用可能为社会带来可持续的积极影响,也会对社会产生强烈的负向冲击。作为自动机器中具有代表性的应用,自动驾驶车辆当前最大的争议点是事故责任的分配问题。2017年,欧盟《机器人民事法律规则》[81]建议为机器人创建一个特定的法律地位,也即赋予他们“电子人格”,从而为自我行为的后果负责。支持派的学者认为,这将推动合理化判定人工智能的创造者和使用者的责任,[82]维护社会共同体的稳定,[83]并且促进社会的良善价值;[84]反对派的学者则认为,如果这一走向得到普遍性的承认,可能会模糊人类与机器的界限,[85]减弱自然人的权利保护水平,[86]甚至会伤害全体人类的尊严。[87]这一争论短期内无法达成统一的意见,因为其背后涉及人的尊严这一根本性命题。如何在当前的法律框架内处理自动驾驶车辆所产生的责任分配难题,是更为迫切而实际的问题。

在技术层面,“黑匣子”的设置可能是确定事故责任的有效手段。优禅尼·博斯(Ujjayini Bose)认为,在自动驾驶车辆上安装一种监测和记录车辆运行数据的机器,即事件数据记录器(Event Data Recorder),是解决责任分配的技术性方案。这种技术类似飞机上的飞行数据记录器(Flight Data Recorder),俗称“黑匣子”。“黑匣子”可以记录和传输有关飞机功能和飞行员操作的信息。通过分析这些信息,调查人员可以确定飞机坠毁的原因是人为失误还是机械故障。自动驾驶车辆亦是如此。[88]2017年6月,德国《道路交通法》修正案生效。该修正案要求所有拥有自动驾驶系统的车辆必须配备一个“黑匣子”,以便在发生事故时帮助明确故障和分配责任。[89]

然而,“黑匣子”只能辅助确定事故责任的归属,并无法完全解决问题。自动驾驶车辆引发的责任包括法律和道德责任。道德问题的答案隐藏于无止境的讨论之中,杰弗里·K.格尼(Jeffrey K.Gurney)认为,当面对不可避免的事故时,自动驾驶技术不会自动关闭,公众会希望自动驾驶车辆将这种事故造成的伤害降到最低,而不论罪魁祸首是谁。算法编写者可以通过使用“碰撞优化算法”(crash-optimization algorithm)将事故造成的伤害降到最低。“碰撞优化算法”是一种决定自动驾驶车辆撞向自然人还是撞向物体的方法。然而就像经典的电车问题一样,如何将自动驾驶的损害降至最小,什么才是最小伤害的定义,仍需要机器道德的持续探讨。[90]

就自动驾驶车辆可能引发的民事责任而言,其包括所有人(控制人)责任、制造商责任和第三方责任。达米安·A.里尔(Damien A.Riehl)认为,自动驾驶车辆的出现,标志着车辆碰撞事故的历史标准似乎不可避免地发生了转变——从驾驶员/车主责任转向产品责任制度。[91]林叶芬(Hannah YeeFen Lim)认为,产品的严格责任是保证公共安全的唯一途径。它将遏制自动驾驶车辆制造商的任何误导或欺骗行为,并将在自动驾驶车辆的发展中形成一种负责任的文化,而不是由利润和虚荣驱动的文化。[92]也有学者秉持不同的观点,凯尔·科隆(Kyle Colonne)认为,为了确保自动驾驶车辆技术及时进入市场,需要减轻自动驾驶车辆和技术制造商的责任。自动驾驶车辆行业应该采用类似核电行业的双层保险框架,为损害赔偿设定上限。[93]杰弗里·K.格尼认为,在自动驾驶车辆问题中,将侵权责任强加给车辆制造商的推论是,制造商很可能会受到“激励”,去撞修理成本最低的车辆,而将这一推论推演到极致,自动驾驶车辆的编程原则将围绕着保护“富人”展开。[94]

与责任分配密切相关的话题是,如何塑造自动驾驶车辆的监管体系。监管的根本原则是在鼓励技术创新的同时,避免个人权益的减损。美国不少州已经开始制定自动驾驶法案,但是联邦层面的《在未来车辆更新中安全保障生命的研发部署法案》(Safely Ensuring Lives Future Deployment and Research In Vehicle Evolution Act, SELF DRIVE Act)(以下简称《自动驾驶法案》)至今仍未获得参议院支持。安德鲁·R.斯旺森(Andrew R.Swanson)建议,国家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)应该行使其监管权力,为自动驾驶车辆提供一个全国性的监管制度。[95]统一性的联邦法律依然必不可少,杰西卡·S.布罗茨基(Jessica S.Brodsky)认为,国会应该考虑为自动驾驶车辆制定一套统一的、全国性的车辆法律,各自为政的州法律可能为自动驾驶车辆的设计和发布制造障碍。[96]朱莉·古德里奇(Julie Goodrich)认为,立法机构必须致力于制定法规、预测并试图解决责任的灰色地带问题,为自动驾驶车辆制定统一的标准。[97]马克·A.普斯特菲尔德(Mark A.Geistfeld)同样认为,尽管还没有管理自动驾驶车辆技术的联邦法律,但事态的发展强有力地表明,国会最终将确立一个自动驾驶车辆的联邦性监管框架。[98]

以良性发展为目标,自动驾驶车辆的监管需要各方的协调考量。塞文·A.贝克尔(Seven A.Beiker)认为,单一的组织或机构无法应对自动驾驶车辆的挑战。自动驾驶技术需要工程、法律、经济、人文等学科的交叉研究,从而识别和应对挑战。[99]杰克·伯格林(Jack Boeglin)认为,监管机构应该把自由、隐私和责任视为相互关联的部分,而不是自动驾驶车辆监管的独立元素。用户越想保护自己的自由和隐私,越可能会为自动驾驶车辆的行为承担更多的责任。杰克·伯格林同时向监管机构呼吁,只允许自动驾驶车辆在以下情况下削减用户的自由和隐私:(1)自由和隐私的减少导致自动驾驶车辆用户的责任相应减少;(2)丧失这些价值所产生的社会代价将被行政效率或其他可确认的社会利益抵消。[100]迈克尔·马蒂奥利(Michael Mattioli)认为,当我们享受自动驾驶车辆的便利时,我们不得不放弃对自己的隐私和安全的部分控制。同样,为了最大限度地提高安全性,车辆制造商将放弃多少利润追求?这些问题不能被孤立地研究。[101]

概括而言,自动机器为人工智能的前沿应用,而对自动机器的讨论围绕着自动驾驶车辆展开。自动驾驶车辆的事故真相可以通过“黑匣子”的技术辅助重现,但车辆所有者、控制者、制造商、经销商的责任认定仍然有待进一步探讨。为消弭技术规制的负面影响,自动驾驶的技术规制需要多方的合作探讨,力图达成技术无碍的规制框架。

四、本书的研究进路、方法与框架

(一)研究进路

数据是人工智能技术的给养,算法是人工智能技术的核心,而自动驾驶车辆是人工智能技术的前沿应用。就研究范围而言,本书以数据、算法和自动驾驶车辆为切入点,三者虽然看似“各自为政”,却在内核之中紧密缠绕。自动驾驶技术的实践应用得益于受训数据集的真实有效与体量充足,而数据集的训练与反馈过程成就了算法的不断优化,直至达成保护隐私与安全的自动驾驶系统。数据夯实了人工智能的基石底座,算法构建出人工智能的钢筋脉络,而自动驾驶则是人工智能的楼宇展示。毋庸置疑,人工智能的代表性应用繁多,其共同特征在于类人的智慧模拟。智慧模拟的核心便在于算法,算法愈是精密完美,智慧模拟便愈是难以被识破。而算法的精密完美依赖算法所认知的真实世界,也即受训数据集。伴随着人工智能应用的快速发展,受训数据集也在不断地改变革新。可以说,数据、算法与智能应用三者相互影响、循环往复,以人工智能规制为论题,便必须考量这三者的互动关系。选择自动驾驶技术而非其他智能应用的原因在于,自动驾驶与个人的生命安全深深交织,而生命安全也是人之为人的基本要素。

(二)研究方法

本书以人工智能时代中具有代表性的三项挑战(个人数据、黑箱算法、自动车辆)为切入点,探讨了美国在人工智能领域中平衡科技创新与基本权利保护的方式,试图为中国提供一份可能的域外智识参照。而智识参照的背后是对美国当前规制图景的理论梳理与实践整合,必然需要运用文献整理法、判例分析法和比较分析法等研究方法。

第一,文献整理法。作为以美国人工智能规制实践为研究内容的学术论文,本书的研究必然需要借助以往学术文献的知识积淀。伴随着电子网络数据库的发展,学术文献的体量日渐庞大,而辨析其中学术涵养较高的文献,则成为论文研究的第一步。以重要英文数据库HeinOnline、Westlaw、JSTOR为主导,以中国知网、万方等数据库为补充,笔者尽最大努力收集了2010—2022年美国学术界在上述三项研究主题中的学术论文(其中也不乏2010年之前的重要学术论文),而通过北美规模前五的加州大学伯克利分校的图书馆以及国内诸多图书收集渠道,笔者挑选了众多具有代表性的英文著作;同时,也收集了美国白宫、美国国会、美国联邦贸易委员会、美国交通部等美国重要政府官方网站的公开文件,以上述资料作为学术文献的支撑。文献收集仅是论文写作的第一步,大量的文献整合并不意味着文献堆砌,将浩如烟海的文献按照逻辑框架、研究对象进行分类整合与公因式提炼,则是写作的下一步。

第二,判例分析法。美国的法律历史以判例为展现形式,众多法律的出台得益于关键性案件的推动。以2018年《明确数据在海外的合法使用》(Clarifying Lawful Overseas Use of Data Act, CLOUD Act)为例,该法案便是Microsoft Corp.v.United States案[102]的直接催化产物。梳理美国重要判例的发展史,也是对美国人工智能领域规制历史的描绘。通过Westlaw等网站进行案例检索,笔者以不同时期的典范案例为分析对象,尝试勾勒技术发展与规制回应的大致轮廓。通过对联邦贸易委员会等网站的执法案例进行检索,笔者以近年来联邦贸易委员会的和解协议或处罚结果为分析对象,试图探讨美国政府的实践偏好与态度转向。如若将海量文献比作论文的基石,那么判例分析便是搭建起本书的坚实框架。

第三,比较分析法。人工智能技术的发展使社会生活更为扁平化,没有任何一个国家可以完全剥离出全球的发展脉络。正如欧盟曾根据《通用数据保护条例》(General Data Protection Regulation, GDPR),对谷歌、Facebook等美国科技公司开出巨额罚单。美国联邦层面虽然拒绝承认被遗忘权概念,但这并不妨碍美国加州部分地承认未成年人被遗忘权。[103]欧盟等区域的规制形态同样也是美国研究不可忽视的参照对象。因而,本书虽然以美国的规制现状为研究对象,却依然比较性地探讨了欧盟等其他区域的理论与实践。更为关键的是,本书立足我国人工智能技术高速发展的现状,通过对美国规制的整合与分析,辩证地看待美国的经验与不足,从而为我国的技术发展与权利保护提供一份反思性参考资料。

(三)框架

具体而言,本书除导论、结语外共分为七章。

第一章主要描述了美国人工智能领域的规制现状。就个人数据而言,信息性隐私权仍然是宪法上一个动态的概念,个人数据的保护被划分为健康数据、金融数据、消费者数据、教育数据和雇员数据等具体领域的保护,其中消费者数据的保护最为突出。对于黑箱算法而言,虽然联邦性算法问责法案仍未能获得两院的一致认可,但算法歧视的加重以及公司言论自由挡箭牌的出现,使联邦层面的算法规制法案迫在眉睫。对于自动驾驶车辆而言,众议院和参议院分别提出了规制自动驾驶车辆的法案,但均未能获得通过,当前确保自动驾驶车辆安全性的任务,主要交由美国国家公路交通安全管理局负责。

第二章分析了技术发展对基本权利体系理论的冲击,主要表现为基本权利主体的界定松动、基本权利侵害主体的范围扩展和基本权利的价值风险加剧。在对基本权利主体范围的讨论中,本章以自动机器为主要讨论对象,分析了其获得法律人格的可能性以及成为基本权利主体的不可能性;在对基本权利侵害主体的探讨中,本章分析了代表性科技公司(Facebook、谷歌和苹果等)的行为被认定为“国家行为”的困难性;在对基本权利价值风险的讨论中,本章剖析了机器算法造成的平等价值风险、被遗忘权造成的公开价值风险以及深度造假技术造成的尊严风险。尽管法律变革并非一蹴而就,但其需要革新的态势已然浮现。

第三章总结了美国在人工智能领域设定的基本权利保护基准,分别是前置性风险预防的权利保护基准、后置性结果矫正的权利保护基准和国家、行业与公众的三方合作需求。前置性风险预防基准主要通过公平信息实践原则和隐私的设计与再设计原则嵌入,后置性结果矫正基准主要通过算法影响评估和数据保护影响评估展现。本章继而论述了上述基准的实践展开脉络、自我监管的兴起与不足,以及政府监管的技术困境,为孵化国家、行业和公众的合作规制提供了温床。

第四章介绍了美国(联邦或各州)政府在人工智能领域保护基本权利的具体履职。前置性风险预防基准主要体现为联邦贸易委员会的合规标准与执法考量、美国交通部与各州准入规则的设定;后置性结果矫正基准主要体现为《加州消费者隐私法》的纠偏尝试、算法的肯定性行动以及双层保险框架的构建。美国政府谨慎的监管态度为行业自我监管的茁壮成长提供了空间,同时也对行业监管提出了基础性要求,并在行业监管失效时进行强力的外部干预,从而体现出权利保护的合比例性。

第五章阐述了平台行业的基本权利保护责任。从压制型、自治型到回应型监管的演化路径,最终催生了元监管模式下的行业自我监管。行业自我监管主要包括私人公司的内部约束和行业组织的反身监管,其中权利尽责制度尤为瞩目。私人公司通过内部规范与技术设计及时防范了越轨行为,而行业监管包括行业组织的标准划定以及第三方机构的认证监督,二者共同构成了行业监管的组织性样态。尽管行业监管存在着反应迅速、技术无阻的天然优势,但是也存在着自我规制的权力悖论,因而需要外部力量的反思性支持,这主要表现为国家干预以及公众参与。

第六章剖析了个人在人工智能领域中保护基本权利的角色和作用。目前个人主要通过消费者组织的形式(公众参与)呈现在社会之中。无论是作为主体间理性商谈的公众参与,还是作为三方监管补充与协调的公众参与,都需要个人算法素养的智识支撑。从参与规则制定过程到监督规则执行效果,全景参与下的公众角色需要充分地表达自己的真实意愿,才有可能达成形式与实质的规范有效性。而个人的权利行使也应受到边界限制,为技术发展留下足额空间,彰显三方合作的理论魅力。

第七章凝练了当前美国叙事中的优势与缺陷,并为我国的实践发展提供了参考。无论是国家义务、行业责任还是公众参与,都存在着一定的局限性,如何整合三方角色,使三方都发挥最大的优势,避免相互制约和掣肘,成为人工智能时代人类命运共同体面对的技术发问。美国式监管图景偏向技术的自我纠错功能,国家与公众参与的外部纠偏机制倾向引导信号功能。选择性借鉴美国的监管经验,为探索出我国智能技术发展与基本权利保护的平衡路径提供智识支持,正是本书的目的。