各国(地区)要点观察 > 美国人工智能相关立法情况概述

美国人工智能相关立法情况概述
2021-02-26 16:14:19 阅读

H Mark Lyon, Cassandra L Gaedt-Sheckter and Frances Waldmann, Gibson Dunn & Crutcher LLP
本文摘自《全球数据评论》(Global Data Review)出版的《GDR观察手册》2021年版。
 
介绍
 
在过去几年中,美国立法者和政府机构一直在寻求开发人工智能(AI)战略和政策,以平衡保护公众免受人工智能技术潜在有害影响与鼓励积极创新和竞争力之间的紧张关系。随着人工智能技术在商业上变得越来越可行,立法者在人工智能治理方面面临的最有趣的挑战之一是,决定哪些挑战可以安全地留给道德规范(作为非正式指导或自愿标准),哪些建议的方法应该成为法律。
 
最近几年,关于人工智能生态系统中治理和问责的作用,以及数字经济中技术变革和监管反应之间的差距的辩论激增。在美国,这一趋势尤其体现在要求对某些“有争议的”人工智能技术或使用案例进行监管,这反过来又赋予立法者越来越大的权力,使他们能够采取初步的措施,在公共和私营部门控制人工智能和自动化系统的范围。2019年至2020年,美国出台了一系列备受瞩目的法案草案,讨论人工智能的作用以及美国联邦政府应如何管理人工智能。与此同时,美国各州和地方政府继续推进具体的立法提案,规范人工智能的使用。同样,欧盟(eu)也采取了许多措施,通过资助来展示其致力于推动人工智能技术的承诺,同时敦促企业和政府开发合乎道德的人工智能应用。然而,在2020年上半年,前所未有的新型冠状病毒大流行的影响使许多承诺的立法进展陷入停滞,许多旨在为人工智能建立监管框架的雄心勃勃的法案在委员会中搁浅,尚未获得通过。
 
尽管如此,美国联邦、州和地方政府机构继续表现出在监管范围上采取具体立场的意愿,包括考虑到最近的事件和社会运动,导致了各种人工智能监管的政策方法——其中许多避开非正式指导和自愿标准,支持彻底的技术禁令。可以预料到,高风险或有争议的人工智能使用案例或失败将继续引发类似的公众支持,并最终引发联邦和州加速行动。在很大程度上,美国监管机构倾向于更个性化、更细致地评估如何最好地监管针对其最终用途的人工智能系统,这一趋势受到了欢迎。即便如此,保守的立法仍存在一种内在风险,可能导致国家监管框架不和谐、支离破碎。这些进展将继续为未来一年管理和监管人工智能带来重要的影响。
 
此外,随着人工智能的使用扩展到不同领域,以及对数据的需求成倍增加,传统上不关注人工智能的立法,开始对人工智能技术的发展产生越来越大的影响。这种影响可以在隐私、歧视、反垄断和劳工相关的移民法等领域看到。虽然其中一些领域可能有助于减轻人工智能有时产生的道德担忧(例如,消除偏见),但其他领域可能会不必要地阻碍开发,并使其难以操作(例如,根据隐私法遵守消费者删除请求,或确保开发人工智能技术所需的劳动力)。
 
本章下一节将讨论美国人工智能技术的总体监管框架,并与其他在适当情况下人工智能研究和开发的司法管辖进行对比,并将突出人工智能技术在各个关键部门如何监管方面的差异。
 
本章的最后一节将讨论可能明显影响人工智能技术和公司的现有和拟议的立法和政策的某些领域,以及可能产生的影响。
 
人工智能的具体规定和政策-现有的和拟议的
 
促进和评估人工智能伦理、研究和联邦政策的立法
 
在2020年,尽管处于商业人工智能创新的前沿,美国仍然缺乏一个全面的联邦人工智能战略和政策。相比之下,观察人士指出,其他国家政府已经在加强国内人工智能研发方面的协同努力和大量支出。国外的这些发展促使许多人呼吁美国政府采取全面的战略和类似的投资,以确保美国在人工智能开发和应用方面的全球领先地位。
 
2019年,联邦政府开始优先发展和监管人工智能技术。2019年2月11日,唐纳德·特朗普总统签署了一项行政命令(EO),创建了“美国人工智能倡议”,旨在刺激人工智能的发展和监管,并通过指示联邦机构优先投资于人工智能的研发,巩固美国的全球地位。这份名为《保持美国在人工智能领域的领导地位》(maintain American Leadership in Artificial Intelligence)的行政命令列出了五个关键领域:研发、释放人工智能资源、建立人工智能治理标准、建立人工智能劳动力,以及国际协作与保护。人工智能项目由国家科学技术委员会(NSTC)人工智能特别委员会(Select Committee on Artificial Intelligence)协调。
 
2019年4月11日,《人工智能增长研究法案》(GrAITR)出台后的几个月,旨在建立一个协调一致的联邦倡议,旨在加速美国经济和国家安全的人工智能研发,并缩小现有的资金缺口。该法案将制定一项战略计划,在未来10年向私营部门、学术界和政府机构(包括国家标准与技术研究所(NIST)、国家科学基金会(National Science Foundation)和能源部)投资16亿美元,用于人工智能的研究、开发和应用,旨在帮助美国赶上包括英国在内的其他国家,这些国家“已经在培养劳动力来制造和使用人工智能设备”。该法案草案已提交给众议院科学、空间和技术委员会,但尚未取得进展。
 
《人工智能增长研究法案》的配套法案《人工智能政府法案》(Artificial Intelligence Government Act)将试图创建一个“为美国政治经济量身定制”的全国性、全局战略,在未来5年内投入22亿美元的联邦投资来开发人工智能。该法案草案将要求联邦政府各部门在系统运行中尽可能使用人工智能。具体来说,它包括建立一个国家办公室来协调整个联邦系统的人工智能工作,要求NIST建立伦理标准,并建议国家科学基金会为人工智能和STEM学习制定教育目标。该立法草案补充了2019年3月成立的两党参议院人工智能核心小组(Senate AI Caucus),以解决涉及多个领域的变革技术,包括交通、医疗、农业、制造业和国家安全。尽管该法案尚未通过,但美国众议院于2020年3月提出的进一步立法——《国家人工智能倡议法》(National Artificial Intelligence Initiative Act)——将建立国家人工智能倡议,以促进人工智能研究和机构间合作,并制定人工智能最佳实践和标准,以确保美国在负责任的人工智能发展方面发挥领导作用。该法案是美国国会推动人工智能发展的最雄心勃勃的尝试,还将在未来5个财政年度批准逾11亿美元的资金。此外,《国家云计算任务小组法案》(National Cloud Computing Task Force Act)提议成立一个任务小组,为人工智能研究规划一个国家云计算系统,为跨科学学科的学生和研究人员提供云计算资源、政府和非政府数据集以及研究环境。
 
2020年5月,《生成人工智能网络安全法案》(Generating Artificial Intelligence Networking Security (GAINS) Act)出台,该法案要求美国商务部和联邦贸易委员会(Federal Trade Commission)明确人工智能在美国应用的优势和障碍;调查其他国家的人工智能战略,并与美国进行比较;评估供应链风险以及如何解决这些风险。该法案要求这些机构向国会报告结果,以及制定国家人工智能战略的建议。此前,美国担心该倡议的建议会损害创新,但在2020年5月28日,美国国务院宣布美国已加入人工智能全球伙伴关系组织,成为七国集团(G7)中最后一个签署该组织的国家。据报道,这是为了“制衡中国在人工智能方面的做法”。
 
2020年9月20日,众议院通过了《2020年政府法令》(第2575号决议)。该法案旨在通过在总务管理局(GSA)内部建立“优秀人工智能中心”,并要求管理和预算办公室(OMB)向联邦机构发布一份关于人工智能治理方法的备忘录,以促进联邦政府在开发人工智能创新应用方面的努力。同时还要求科学技术政策办公室就人工智能的获取和最佳实践向联邦机构发布指导。就在几天后,众议院议员们提出了一项同时通过的决议,呼吁建立一套具有凝聚力的国家人工智能战略,该战略基于四个支柱:劳动力、国家安全、研究和开发、道德规范。
 
国会还表示,有必要制定道德准则和劳动保护,以解决人工智能可能产生的偏见和歧视。2019年2月,众议院提出了第153号决议,旨在“支持人工智能道德发展指导方针的制定”,并强调“人工智能的深远社会影响”以及人工智能“安全、负责任和民主发展”的需要。与加州去年通过的艾斯洛玛尔原则(AsilomarAI Principles)以及经济合作与发展组织(OECD)最近通过的五项“民主”人工智能原则类似,众议院的决议规定,指导方针必须与特定的目标相一致,包括“透明度和解释性”、“信息隐私和个人数据保护”、“所有自动决策的问责和监督”以及“访问和公平”。该决议把伦理放在政策的最前面,这不同于其他立法只把伦理作为辅助议题。尽管该决议标志着政府呼吁采取行动,为人工智能技术的使用制定道德准则,但这些道德规范的细节和范围仍不清楚。
 
此外,2019年1月28日出台的人工智能就业法案(AI JOBS Act)将授权美国劳工部(Department of Labor)与企业和教育机构合作,撰写一份分析人工智能未来及其对美国劳动力市场影响的报告。与众议院关于道德的决议类似,该法案表明联邦政府承认引入人工智能技术所带来的威胁。但是,没有迹象表明联邦政府可能采取什么行动来提供劳动保护,该法案也没有取得进展。
 
人工智能技术和算法的监管
 
知识产权
 
2019年末,美国专利商标局(USPTO)发布了一项众人期待已久的决定,加快了支持私营部门人工智能发展的努力。美国专利商标局要求公众就与专利相关的人工智能问题发表意见,包括人工智能是否可以被视为专利发明人。在欧洲专利局的影响下,并根据其公众评论程序,美国专利商标局在2020年4月裁定,只有自然人,而不是人工智能系统,可以注册为专利的发明者。这一决定可能会让与人工智能合作开发的发明陷入争议,因为人们可能会争论,一个自然人是否与该发明具备足够的相关性,足以要求获得专利。
 
在过去的几年里,美国立法者提出了几项旨在监管人工智能的法案,重点是在面对有害偏见和其他意外后果等新风险时,追求透明度、问责性和“可解释性”。2018年6月25日首次提出、2019年7月16日再次提出的《自动程序披露和问责法》(Bot Disclosure and Accountability Act)要求联邦贸易委员会制定法规,强制数字平台公开披露其使用“旨在在线复制人类活动的自动化软件程序或过程”的情况。它还禁止政治候选人或政党使用这些自动软件程序来分享或传播任何针对政治选举的信息。这项尚未取得进展的法案,将定义“自动软件程序”的任务交给了联邦贸易委员会(FTC),这就给该法案留下了广泛的解释空间,超出了该法案旨在限制自动程序目的。
 
2010年4月2019年,一些参议院民主党人提出了《算法问责法》(Algorithmic Accountability Act),该法案要求企业研究并修复存在缺陷的计算机算法,这些算法会导致对美国人产生不准确、不公平、有偏见或歧视性的决策。该法案是国会第一次认真尝试监管人工智能,也是美国第一次立法尝试在总体上监管人工智能系统,而不是监管自动驾驶汽车等特定技术领域。虽然观察人士指出,过去几年国会在监管人工智能方面保持沉默,但该法案暗示,随着公众越来越意识到人工智能可能造成偏见或伤害某些群体,华盛顿的立场发生了巨大转变。该法案撒开了一张大网,许多科技公司会发现,一些常见的做法都属于该法案的管辖范围。该法案不仅将规范人工智能系统,也将规范任何“自动决策系统”,该系统被广泛定义为任何“计算过程,包括来自机器学习、统计、或其他数据处理或人工智能技术的计算过程,作出决定或促进人类决策,影响消费者”。虽然该法案尚未取得进展,但它代表了人工智能监管的一个先兆,明确了目前人们关注的领域。
 
该法案反映出,与以往受到青睐的行业自律方式有所不同,因为这将迫使企业积极监控任何潜在歧视性算法的使用。虽然它没有规定州检察长的诉讼或强制执行的私人权利,但它将赋予联邦贸易委员会(Federal Trade Commission)执行和监管这些审计程序和要求的权力。国会在这一问题上的进一步行动当然是可以预期的。
 
2019年10月2031日,一个由两党参议员组成的团体提出了《过滤泡沫透明度法案》(Filter Bubble Transparency Act)。“过滤气泡”指的是存在于算法中的一个潜在操纵区域,该算法根据特定用户的数据对互联网平台上的内容进行筛选或排名。该法案将要求大型互联网平台向消费者提供更大的透明度,对“不透明”算法管理的个性化内容的使用提供明确通知,并让消费者能够选择退出,这样他们就可以“与平台互动,而不受用户特定数据驱动的算法的操纵”,“直接选择退出过滤气泡”。拟议中的法案涵盖了“任何面向公众的网站、互联网应用程序或移动应用程序”,如社交网站、视频共享服务、搜索引擎和内容聚合服务,一般都将禁止在不通知用户的情况下使用不透明算法。与《算法问责法》相同,该法案明确针对的是“大技术”平台——该法案不适用于在过去6个月内雇佣不到500名员工、平均年收入低于5000万美元、每年收集或处理少于100万个人个人数据的人所拥有、控制和运营的平台。
 
目前还没有专门适用于人工智能技术的联邦法规。虽然已经提出了许多法案,但其中许多法案的要求相互矛盾或相互矛盾,而且新型冠状病毒大流行和即将到来的选举显然改变了联邦议员的很多关注点。进入2021年,一切有望回到更接近我们之前认为的“正常”的情况,可以关注一下国会是否会恢复对人工智能监管的势头。
 
相比之下,州立法机构现在已经通过了几项直接管理人工智能的法律。加利福利亚州在2018年9月通过了一项法案,名为《增加在线透明度法案》(Bolstering Online Transparency Act),这是首个此类法案(类似于联邦《自动程序披露和问责法》),旨在打击在数字平台上运行的恶意自动程序。加州的法律并没有试图完全禁止自动程序,但是要求公司披露他们是否在他们的互联网平台上使用自动程序与公众交流。该法律于2019年7月1日生效。
 
2019年5月,伊利诺伊州通过了《人工智能视频面试法》(Artificial Intelligence Video Interview Act),限制了雇主将人工智能纳入招聘流程的能力。雇主在使用人工智能技术进行招聘时必须满足特定要求,包括通过解释人工智能的工作方式和技术检测的特征来获得知情同意,以及雇主必须在30天内删除任何视频内容。尽管如此,该法案并没有定义“人工智能”的含义,对知情同意条款的其他要求被认为是模糊的,并受到广泛的限制。
 
在过去的几年里,美国联邦政府一直非常积极地协调跨部门的领导和计划,以支持政府自身使用的人工智能技术的持续研究和发展。其中一些关键立法和行政行动的一个主要重点是发展和发展用于国家安全和军事用途的这种技术。2019年,约翰·s·麦凯恩(John S. McCain)《2019年国防授权法案》(the 2019 NDAA)通过后,成立了国家人工智能安全委员会(National Security Commission on Artificial Intelligence),研究人工智能和机器学习方面的进展,以及它们在国家安全和军事方面的潜在应用。此外,由于《2019年国防授权法案》,美国国防部创建了联合人工智能中心(JAIC),作为开发和执行总体人工智能战略的工具,并任命该中心的负责人来监督军队这一战略的协调。尽管这些行动明确表明,美国有意确保人工智能等先进技术也有利于美国军方和情报部门,但国会有限的资金可能会阻碍这些新成立的实体完全实现其既定目标的能力。
 
在执行人工智能总体战略时,JAIC正成为国防部(DOD)的关键焦点。在国防部提供的2018年人工智能战略摘要中,JAIC将与国防高级研究计划局(DARPA)、多家国防部实验室以及国防部内的其他实体合作,不仅识别和提供支持人工智能的国防能力,还将为军队开发和使用人工智能制定道德指导方针。
 
JAIC试图成为定义人工智能在军事应用中的伦理应用的领导者,这可能进一步证明是一个挑战,因为人工智能最热门的应用之一与自主武器有关。人工智能的间接武器化应用,比如Project Maven,它利用机器学习和图像识别技术来改进对全动作视频数据的实时解释,一直是公众敌意反应和抵制努力的对象。尽管时间会证明一切,但国家安全所需的机密性与对人工智能使用透明度的渴望之间的紧张关系,可能是JAIC难以逾越的界限。
 
最近在联邦一级提出的几项法案寻求增加资金,并在美国国防部门发展人工智能创新。2016年6月,参议院人工智能核心小组(Senate Artificial Intelligence Caucus)联合创始人罗布·波特曼(R-OH)和马丁·海因里希(D-NM)提出了跨党派的《武装部队人工智能法案》(Artificial Intelligence for the Armed Forces Act),该法案一旦颁布,将通过增加国防部人工智能和网络专业人员的数量,进一步加强国防部的人工智能能力。该法案将要求国防部长制定一个培训和认证计划,并就五角大楼如何更好地利用现有的雇佣授权来招聘人工智能人才发布指导意见。例如,2020年1月出台的《2020年美国科学技术法案(SALTA)》(secure American Leadership in Science and Technology Act of 2020)将侧重于“投资基础科学研究,并支持为美国经济和国家安全而进行的技术创新”,这可能会鼓励人工智能的发展,包括国家安全,尽管存在下文“劳工”部分讨论的若干挑战。
 
医疗保健
 
毫无疑问,考虑到潜在风险,人工智能在医疗保健领域的应用存在着最令人兴奋的前景和最令人警惕的担忧。到目前为止,针对医疗保健领域人工智能的法规还很少,但新型冠状病毒带来了与医疗保健治疗和交付选项相关的额外枝节,这可能会影响人工智能,监管机构承认,现有的医疗设备审批框架并不十分适合人工智能相关技术。
 
最近的立法——部分源于新冠病毒相关数据收集——可能会限制企业使用人工智能来应对新冠病毒带来的业务挑战的程度。具体来说,对面部识别技术和个人健康数据的使用的限制可能会限制技术用于追踪病毒传播和影响的方式。雇主已经开始使用热扫描技术让员工进入他们的工作场所,这项技术会使用面部扫描作为过程的一部分。大型住宅业主正在考虑使用面部识别技术来控制和监控其建筑的入口,防止未经许可可能携带冠状病毒的进入者。在伊利诺伊州这样的司法管辖区,这种做法可能会让公司面临重大的法律风险,这要求私人实体在收集员工或公众成员的生物统计数据之前,必须发出通知,并获得他们的书面同意,即使仅仅为了短暂或暂时的目的,比如面部识别扫描。伊利诺斯州最高法院裁定,原告无需证明其权利受到侵犯以外的实际损害,因此,私人公司可能面临代价高昂的集体诉讼,除律师费外,还可要求每一组成员获得1,000至5,000美元的赔偿金。目前摆在国会面前的一些法案将在联邦层面上对面部识别技术的使用提出类似的正面同意要求。
 
此外,《个人健康数据保护法案》(Protecting Personal Health Data Act)将成立一个国家健康数据保护工作组,并要求卫生和公共服务部颁布有关健康信息的法规,这些信息目前不包括在《医疗保险可转移性和责任法案》(HIPAA)中,但可以根据疾病流行情况收集,并由实施人工智能技术的企业使用。《智能手表数据法》(Smartwatch Data Act)将禁止公司在未经消费者知情同意的情况下,从个人消费设备(包括可穿戴设备和追踪器)转移或出售健康信息。学术评论人士呼吁对医疗数据或个人数据进行更严格的监管,以使这些信息的处理符合HIPAA的规定。这些数据与健康没有明确关系,但可用于利用人工智能技术得出个人健康结论。
 
受1996年《医疗保险可转移性和责任法案》(HIPAA)约束的数据本身将受其隐私规则的约束,这也可能无意中阻碍人工智能的发展。例如,隐私规则的基本原则之一是,受保护的健康信息的使用和披露应限于进行特定交易或行动所必需的“最低限度”。虽然人工智能的使用方式有无数种(包括根据例外情况使用),但这种使用上的限制可能会影响开发与医疗保健相关的人工智能的能力。
 
具体到医疗设备,美国食品和药物管理局(FDA)也在2019年人工智能相关医疗设备的拟议审查框架中就监管人工智能的使用提出了自己的观点,旨在鼓励创新和改变生活的人工智能技术的途径,同时保持FDA的患者安全标准。
 
其“人工智能/机器学习(AI/ML)软件为医疗设备(SaMD)作出的修改建议的监管框架”——提出了使用人工智能管理健康产品的新框架,并征求了意见。基于人工智能的医疗设备旨在根据病人情况不断调整,美国食品和药物管理局认为,许多修改将需要市场前审查——这是当前形式下一个可能不可持续的框架。该文件建议对与人工智能相关的医疗设备进行初步的上市前审查,以预测预期的变化,描述方法,并要求制造商提供一定的透明度和监控,以及向FDA提供关于变化的最新信息,这些变化实际上是根据初步审查中提供的信息产生的。FDA于2019年4月2日发布了这份文件,并在2019年6月3日之前就各种问题征求了意见,包括所描述的修改类别是否需要市场预审、定义了“良好的机器学习实践”,以及制造商可能以何种方式“展示透明度”。但是从那时起,这个项目就一直没有更新过。
 
面部识别、生物识别监控和“deepfake”技术
 
人工智能技术的应用领域,或许还没有哪一个领域像执法部门和其他政府官员采用面部识别技术那样,在美国掀起了一场监管或禁止人工智能技术在美国使用的热潮。其他的生物特征数据,包括面部几何形状和结构的数据,通常被认为是关于个人的最私人的数据,这使得隐私权倡导者敦促特别注意防止未经授权或恶意使用。因此,许多公众利益团体和其他反对面部识别技术的声音已经迅速对潜在的技术问题以及政府当局的潜在或实际滥用发出警报。尽管迄今为止大多数监管活动都是在地方一级进行的,但鉴于新型冠状病毒疫情以及与种族正义有关的社会运动(如BLM)的复苏,州和联邦一级也正在形成加强监管行动的势头。
 
种族正义运动促使联邦和州立法机构重新考虑政府和警察部门使用面部识别技术的问题,并提议立法禁止警察更广泛地使用这一技术。例如,《2020年乔治·弗洛伊德司法改革法案》(George Floyd Justice in Policing Act of 2020)提出的改革方案包含两项法案,将影响人工智能技术和面部识别的使用。《联邦警察摄像和问责法》(Federal Police Camera and Accountability Act)要求联邦执法人员佩戴随身摄像头,但该法案明确禁止联邦警察为这些摄像头配备面部识别技术。2020年的《警察摄像法》(Police CAMERA Act of 2020)将为州、地方和部落警察提供资金,以实施随身摄像头技术,但它禁止这些资金用于面部识别技术,并要求在两年内完成一项研究,研究内容包括“与使用面部识别技术的个人的宪法权利有关的问题”。2020年2月提出的《面部识别的道德使用法案》(Ethical Use of Facial Recognition Act)将禁止任何联邦官员、雇员或承包商在没有授权的情况下任意使用面部识别,直到国会委员会作出规范此类使用的道德规范。2020年8月出台的《国家生物特征信息隐私法》(National Biometric Information Privacy Act)将是最全面的法案,因为它是根据伊利诺伊州的《生物特征信息隐私法》(Biometric Information Privacy Act)制定的。该法案还包括,在收集或披露生物特征信息之前,必须获得个人的同意、隐私权(包括潜在的违约金)以及安全条款。
 
2020年6月,在美国公民自由联盟(ACLU)和其他民权组织的压力下,加州议会否决了一项旨在扩大州和地方政府使用面部识别技术的法案。该法案将允许政府实体使用面部识别技术来识别据信犯有严重刑事罪行的个人。作为一项保障措施,该法案允许第三方控制人员测试面部识别技术是否在各亚群体中表现出任何偏见,并允许公众成员要求从政府数据库中删除自己的图像。其他州也在处理类似的面部识别问题,包括马里兰州,该州通过了一项法案,禁止“在求职面试中为创建面部模板而使用的面部识别服务”,除非应聘者签署弃权书。华盛顿州则批准了一项限制政府使用面部识别的法案,要求进行偏见测试和培训,并在使用方面透明化。
 
此外,其他州也颁布了更通用的生物特征数据保护法,这些法律不限于面部识别,但仍然规范了个人生物特征数据(至少在某些情况下,包括面部几何数据)的收集、处理和使用。在撰写本文的时候,伊利诺斯州、德克萨斯州和华盛顿州都颁布了相关法律,旨在为居民的生物特征信息提供具体的数据保护。但是只有伊利诺伊州的《生物特征信息隐私法》为隐私权提供了行政强制措施保护。此外,《加州消费者隐私法》(California Consumer Privacy Act)将其保护范围扩大到个人的生物特征信息,包括面部识别技术中使用的信息。其他一些州已经将生物特征数据隐私作为数据违法法律的一部分,或者正在考虑通过更普遍的隐私法案,包括生物特征信息的保护。
 
此外,企业的反应可能会成为阻碍人工智能使用的一个重要因素,这种方式可能会使偏见永久存在或侵犯公民自由。许多知名科技公司都表达了对BLM运动的强烈支持,其中包括IBM,该公司宣布将停止生产面部识别产品,原因是担心该技术存在偏见,并可能侵犯公民自由。
 
最近,“deepfake”——一种生成式对抗网络输出,通过真实输入(如照片)训练软件系统来生成类似的人工输出(deepfake)——也成为了一个高风险的用例。2019年9月,众议院通过了《生成对抗性网络法案》(IOGAN),如果该法案获得通过,将指导美国国家科学基金会(NSF)和美国国家标准与技术研究院(NIST)支持有关操纵或合成媒体真实性的研究,并推动标准的发展。
 
自动驾驶汽车和汽车工业
 
2017年和2018年初,美国国会就自动驾驶汽车的国家监管框架展开了一系列立法活动。美国众议院于2017年9月通过了《确保生命安全的未来汽车进化部署与研究(SELF – DRIVE)法案》,但其配套法案《美国通过革命性技术提高交通安全的愿景(AV START)法案》,由于民主党参议员的反对,在参议院被搁置。民主党参议员担心,在没有联邦标准的情况下,该法案将“无限期地”抢占州和地方安全法规的先机,但该法案仍不完善。
 
自2019年底以来,议员们一直在推动围绕监管自动驾驶汽车的新立法草案达成一致。2020年2月11日,众议院能源和商业委员会、消费者保护和商业小组委员会举行了一场题为“自动驾驶汽车:不断发展的汽车技术的承诺和挑战”的听证会。在听证会上,证人表达了这样的担忧:由于缺乏联邦监管,美国在竞争环境和建立综合安全标准方面都落后于人。听证会结束后不久,众议院小组公布了一份两党法案草案,其中包括此前未公布的关于网络安全要求的部分。该法案草案的反馈窗口已于2020年2月21日关闭,在撰写该法案时,该法案尚未出台。
 
因此,自动驾驶汽车(AVs)在很大程度上是根据各州和地方的复杂规则拼凑而成的,联邦监管仅限于美国交通部(DoT)的非正式指导。2020年1月,交通部发布了自动驾驶汽车行业监管的最新指南,名为《确保美国在自动汽车技术方面的领导地位》或又称为《自动驾驶汽车4.0指南》(AV 4.0)。该指南建立在2018年10月发布的《自动驾驶汽车3.0指南》的基础上,该指南介绍了面向所有地面交通模式的自动驾驶汽车创新的指导原则,并描述了交通部解决潜在安全效益和进展方面的现有障碍的战略。AV 4.0包括10条原则,旨在保护消费者,促进市场,并确保联邦对AV的标准化方法。与之前的指导方针一致,该报告承诺在不妨碍创新的情况下,解决公众对安全、安全和隐私的合理担忧,并强烈依赖行业的自我监管。然而,报告也重申了利用新兴技术的公司应该继续遵循的传统信息披露和合规标准。
 
2020年3月20日,美国国家公路交通安全管理局(NHTSA)发布了其首个关于拟议规则制定的通知,“以改善安全和更新不再有意义的规则,比如要求自动驾驶汽车进行人工驾驶控制”。该通知旨在“帮助简化制造商的认证流程,降低认证成本,并将未来NHTSA解释或豁免要求的必要性降至最低”。例如,拟议的规则将把传统汽车前副驾驶座位的保护标准应用到自动驾驶汽车的驾驶的所有座位上,而不是仅仅针对驾驶员座位的安全要求。该通知不会改变现有的手动控制的传统车辆的乘员保护要求。
 
2019年,几家联邦机构宣布了制定规则的提议,以促进自动驾驶汽车在公共道路上的整合。2019年5月20日,美国通用汽车公司(General Motors)提交了一份请愿书,要求暂时豁免联邦汽车安全标准(FMVSSs)的限制,该标准要求人工控制或有特定的人类驾驶员的要求。在此之后,美国国家公路交通安全管理局(NHTSA)宣布,正在就是否有可能取消有关在美国引入自动驾驶汽车的“监管障碍”征求意见。对测试程序(包括预编程执行、模拟、使用外部控制、使用人工控制和技术文档替代车辆)的监管变化,以及对当前FMVSSs的修改(如耐撞性、避撞和指标标准),很可能将在2021年完成。
 
与此同时,美国各州的立法活动也在加紧推进自动驾驶汽车的整合。各州的规定差别很大,有的允许在特定的、有限的条件下进行测试,有的甚至允许在无人驾驶的情况下测试和操作自动驾驶汽车。一些州,比如佛罗里达州,对自动驾驶汽车的规定采取了一种普遍的许可方式,因为他们不要求汽车中有一名人类驾驶员。人们普遍认为,加州拥有最全面的自动驾驶汽车法规体系,允许在公共道路上进行测试,并建立了自己的一套专门针对无人驾驶汽车测试的法规。2019年4月,加州机动车管理局(DMV)发布了自动驾驶汽车法规草案,允许重量小于10001磅的自动驾驶卡车(送货车)在加州的公共道路上进行测试和部署。在加州立法机构,已经提出了两项与自动驾驶汽车相关的新法案:SB 59将建立一个关于自动乘用汽车政策发展的工作组,而SB 336将要求公交运营商确保某些自动交通车辆配备员工(在撰写本文时,这两项法案仍在委员会讨论中)。大多数州要么规定制造商不对自动驾驶汽车撞车负责,除非撞车时存在缺陷(例如华盛顿),要么规定自动驾驶汽车撞车责任受适用的联邦、州或普通法的约束。美国一些州已经建立了自动驾驶汽车撞车事故赔偿责任的条款。
 
同样在地方层面,一些州明确禁止地方政府禁止本州内的试点项目(如俄克拉何马州、乔治亚州、德克萨斯州、伊利诺伊州、田纳西州和内华达州),而另一些州则不那么严格,只是要求希望启动试点自动驾驶汽车项目的公司应书面通知市政当局(如加利福尼亚州)。

非人工智能相关的特定监管也可能会影响人工智能技术
 
数据隐私
 
随着欧洲《通用数据保护条例》(General Data Protection Regulation,简称GDPR)的出台,以及过去几年发生的各种备受瞩目的隐私事件,美国各州和联邦层面的立法者正以创纪录的速度提出与隐私相关的法案。这些分别是于2020年1月1日生效的《加州消费者隐私法》(CCPA)、《纽约隐私法》(2019年中期失去势头,但又被提交给了消费者事务和保护委员会)和《纽约禁止黑客攻击和改善电子数据安全(SHIELD)法》。尽管大多数条款并不特定于人工智能技术,但有些条款包含了与自动决策相关的条款,而且大多数条款都有能力极大地影响——并无意中抑制——人工智能技术的发展。
 
最近提出的和悬而未决的国家隐私法案不会直接规范人工智能技术,但可能会在透明度和消费者权利方面规范人工智能技术的数据使用。例如,纽约重新引入的《隐私法》规定,如果“对(个人数据)的处理是通过自动方式进行的”,消费者有权要求获得信息,并限制了实体在没有特定情况下(如获得政府的授权)“仅根据对此类消费者的资料分析作出会对其产生法律效力的决定”的能力。在这里,“资料分析”广义定义为“个人数据的自动处理,包括使用个人数据来评估与自然人有关的某些个人方面。”特别是,分析或预测自然人的经济状况、健康状况、个人喜好、兴趣、可靠性、行为、位置或运动等方面。如果公司进行了资料分析,则必须披露这一事实,以及有关所涉及的逻辑、资料分析的重要性和预期后果的信息。使用人工智能技术的公司可能会为 “单独”一词,从潜在的重大剥离中找到安慰。就像GDPR一样,如果在决策过程中的某个时刻有人为干预,那么该规定就不会被援引。华盛顿提出的隐私法案(人们普遍认为该法案会通过,但现在已经提出两次,每次都以失败告终)包含了非常相似的条款。虽然其他州可能使自己的立法与这个框架相一致,但许多州的提案也可能与CCPA类似对自动处理问题保持沉默。
 
无论法律是否有专门针对人工智能的规定,广泛适用的隐私法在本质上都与人工智能存在冲突,而且很可能给开发和使用人工智能技术的公司带来麻烦。从根本上说,人工智能技术需要大型数据集,而这些数据集很可能包含一些个人信息。这可能会大量触发隐私相关的法律法规。例如,作为美国第一个也是涵盖面最广泛的隐私法案,CCPA允许消费者在没有任何解释的情况下要求企业删除个人信息。作为一个人工智能数据系统,这不仅是不可能的,而且在一定程度上,它可能会导致决策倾斜,对人工智能技术的完整性造成风险。虽然CCPA对这一一般权利作出了一些例外情况(包括出于安全、交易、公共利益研究或与消费者期望一致的内部使用的原因),但目前仍不清楚这些例外将如何应用,以及实体是否可以使用例外作为将数据纳入数据集的广泛许可。此外,对于潜在的“黑匣子”人工智能算法来说,消费者对收集到的数据、如何使用数据以及数据来源的透明度的权利可能也根本不可能实现。知道收集了哪些数据可能是可行的,但披露如何使用数据,以及详细信息,会给人工智能带来复杂的问题。即使在信息公开可行的情况下,企业也可能面临这样的矛盾:一方面不希望披露此类信息用于商业秘密的确切方式,另一方面又要遵守隐私规定下的消费者通知要求(隐私规定的细节可接受程度尚未确定)。加州总检察长办公室刚刚开始执行,对CCPA的修正案仍在提出,11月加州选民的投票倡议可能会彻底改革CCPA,这一事实加剧了该法效力的不确定性。
 
最近的决定和法律同样可能影响到人工智能开发所需的数据自由使用能力。《纽约防护法案》(New York SHIELD Act)于2020年3月21日生效,修订了纽约州的数据泄露通知法,对受保护企业实施额外的数据安全和违反通知要求,以保护纽约居民,包括确保其供应商的安全。根据美国-欧盟(US-EU)的隐私保护规定,以前获准从欧盟传输数据(例如用于人工智能项目的数据)的企业,如今面临着新的障碍,因为施雷姆斯第二案(Schrems II)的判决判定该机制无效。更多的数据带来更多的漏洞,使得人工智能公司更有可能面临因网络安全事故和不遵守安全和数据传输要求而面临诉讼的风险。
 
另一方面,这些隐私法可能在某些情况下不适用。例如,拥有5万个或更少消费者数据、收入有限或非营利性的公司可能不受CCPA的约束。虽然这可能会让初创企业获得更大的自由度,但也可能会无意中导致保护措施减少(由于安全系统不成熟),并增加偏差的可能性(更小的数据集,以及不成熟的反偏差系统)。此外,拟议的隐私法一般不适用聚合的或去识别的数据。虽然这些定义有时可能很严格,但人工智能对数据的使用可能会并不在监管范围内,仅仅因为它们可能不实际使用“个人信息”。
 
因此,这波与隐私相关的联邦和州监管提案很可能会持续下去,在未来几个月开发和使用人工智能的公司肯定会关注这些问题,并将着力解决如何在这些要求与技术的进一步发展之间取得平衡。
 
歧视
 
虽然美国平等就业机会委员会(EEOC)执行的联邦歧视法及其指导方针没有改变,但人工智能被认为是这种歧视的新媒介。
 
事实上,参议员和机构——包括平等就业机会委员会本身——正在推动确保人工智能技术被追究责任,以防止基于偏见的歧视。例如,据报道,平等就业机会委员会(EEOC)正在调查有人声称,在招聘、晋升和其他工作决策中使用的算法对特定群体的个人有歧视。过去几年,美国参议员一直在向各机构施加越来越大的压力,以确保它们尽其所能,充分调查企业在决策过程中使用人工智能的情况。
 
人们的担忧并非理论上的,而是基于一个已经意识到的困境,因为各种人力资源和金融贷款工具都容易受到无意的偏见的影响。
 
如前面进一步讨论的,诸如BLM之类的种族正义运动,也促使联邦和州立法机构重新考虑政府和警察部门是否使用面部识别技术。
 
由于最近对人工智能中可能存在的歧视和偏见的关注,我们可能会看到反歧视法被更频繁得适用,可能还会有更多针对以人工智能为中心的技术的拟议中的法规。我们甚至还可能看到寻求直接监管算法偏见的其他立法提案。
 
反垄断
 
政府机构越来越倾向于在反垄断问题上调查大型科技公司的商业行为。虽然不会直接影响人工智能,但这些大型科技公司通常都在做大量的人工智能建设、利用和测试工作,如果这些公司面临“拆分”的威胁,可能会对它们继续开发人工智能技术的能力产生不利影响。数据的集中——这在反垄断领域可能是一个问题——实际上反而可能会促进人工智能的发展,因为在机器学习系统的开发中需要使用大型数据集。这样的“拆分”也会降低美国在人工智能竞赛中与一些地缘政治竞争对手的竞争力,因为拆分后的公司获得的数据集将变小,这将阻碍人工智能创新,而来自其他国家的公司不太可能受到类似反垄断诉讼。
 
2019年7月20日,美国司法部宣布,其反垄断部门将审查“市场领先的在线平台是否获得了市场权力,以及它们是否正在从事减少竞争、抑制创新或损害消费者利益的行为”。美国司法部还表示,将继续调查Alphabet在疫情期间被指的反竞争行为,美国总检察长计划在2020年夏天就是否对大型科技公司提起反垄断诉讼做出决定。联邦贸易委员会(Federal Trade Commission)继续调查在线平台,众议院司法委员会(House Judiciary Committee)对数字市场的竞争展开两党调查,其中包括举行听证会和传唤文件。此外,众议院反垄断小组委员会在2020年7月举行了近6个小时的虚拟听证会,询问最知名科技公司的领导人。支持这些调查的人经常引用对像谷歌和亚马逊这样的大公司的广告投放(通常包括人工智能技术)的批评,以及由此产生的这些大公司对通信和商业的非凡影响。另一方面,由于这将是反垄断法应用的新领域,批评人士预计美国联邦政府将在这方面面临各种挑战。
 
结论
 
围绕人工智能技术监管的讨论在过去一年继续扩大,导致地方和联邦立法机构在各个领域提出了更多相关提案。虽然很少有立法机构真正通过人工智能的具体法律,但那些已经通过的法律,以及尚未出台的法规和政策,仍然对人工智能技术是否应该受到监管、何时监管、以及如何监管提出了重大疑问,包括是否需要更多的立法来充分理解潜在影响并加以解决,同时又不过分限制美国作为人工智能世界领导者的地位。鉴于人工智能技术对数据的需求,非人工智能特定法律(包括最近颁布的隐私法)也可能无意中对人工智能技术产生迥然不同的影响。虽然现在还不能确定,但未来几年,随着企业继续将人工智能整合到各个业务领域,随着法律继续直接和间接地发展和影响人工智能,人工智能的监管将会越来越值得关注。由于发展速度飞快,预计即使在本章的起草和出版之间,人工智能的前景也将发生巨大变化。
 
作者感谢Nicholas Venable和Amanda Sansone对本章的帮助和贡献。
 
文章来源:
https://www.lexology.com/library/detail.aspx?g=8b18eda1-9235-4add-b63f-6fd8a5bf771d


【上一篇】【中文全文】Lex Machi... 【下一篇】PACTE法案给法国知识产...