数字杂志阅读
快速下单入口 快速下单入口

美国、欧盟及英国对人工智能的监管与规制

来源:《中国外汇》2023年第6期

当前,以ChatGPT为代表的人工智能成为新一轮科技革命的重要方向。人工智能不仅有利于全球智能制造的产业升级,也有利于各经济体挖掘新的增长引擎。与此同时,以ChatGPT为代表的人工智能对个人隐私、网络安全、知识创作等均带来潜在风险。主要发达经济体已意识到上述问题,并就人工智能技术监管与规制进行探索,以确保人工智能技术开发或部署的透明度、公平性和可问责性。本文聚焦美国、欧盟、英国这三个司法辖区对人工智能的监管政策和监管活动,对比这三个司法辖区对人工智能监管的异同,并对未来相关监管趋势进行展望。

人工智能监管概况

ChatGPT发布以来,美国、欧盟、英国社会各界对ChatGPT提出的法律风险主要集中在以下三个方面:一是以ChatGPT为代表的人工智能生成内容所涉及的著作权许可和侵权问题,该问题的核心在于人工智能生成内容是否构成作品。二是人工智能工具使用过程涉及的数据和个人隐私保护问题。三是以ChatGPT为代表的人工智能未取得相关执业许可即提供专业建议的的法律风险问题。

截至目前,美国、欧盟、英国尚未正式出台专门规制人工智能的法律法规或指南,不过,已经出现了涵盖人工智能的相关监管指导性文件,其中受关注程度最高的政策文件或草案是:美国国家标准及技术研究所(National Institute of Standards and Technology,NIST)发布的指导性文件《人工智能风险管理框架1.0》、欧盟委员会的立法草案《人工智能法案(草案)》和英国发布的指导性文件《人工智能监管政策》(AI Regulation Policy Paper)。根据上述政策文件,目前这三个司法辖区在人工智能行业发展政策、立法和执法重点、监管机构设置以及社会关切等方面均存在一定差异。

在人工智能行业导向方面,美国干涉力度较低,而欧盟和英国则对人工智能发展保持相对谨慎态度,这也与三个司法辖区人工智能产业发展状况和法制环境不同有关。目前,美国人工智能技术领先于全球,其后为英国、中国、日本、韩国等。在美国,人工智能监管旨在促进科技行业的创新和发展,而在欧盟和英国,人工智能监管在促进创新的同时,也强调在人工智能发展中捍卫公民的基本权利,即保护公民的生命和自由、不受奴役和酷刑、获得教育和工作等基本权利,并且要求把捍卫公民基本权利上升到人工智能开发的价值观层面(以下统称“基本权利和价值观”)。

在人工智能监管的立法和执法重点方面,美国为了尽可能促进人工智能的开发利用,鼓励科技行业自愿遵守相关原则并进行自我监管。而欧盟和英国则积极围绕人工智能构建一个能够保护上述基本权利和价值观的法律框架,计划通过建立强有力的执法机制以确保相关人工智能企业合规。

在人工智能监管机构的设置方面,美国目前尚没有设置统一的人工智能监管机构的计划,美国各政府部门在各自职权范围内开展针对人工智能的监管。与美国不同,欧盟委员会提议成立一个欧洲人工智能委员会。英国则拟指定英国政府下设的独立机构——信息专员办公室(Information Commissioner's Office,ICO)对人工智能进行监管,目前尚不会设立新的专门的人工智能监管机构。

在社会关切方面,美国涉及人工智能的立法障碍主要来自党派僵局和缺乏监管必要性的共识。欧盟和英国人工智能的立法面临的挑战则是如何在促进创新与保护基本权利和价值观的需求之间取得平衡。此外,美欧人工智能监管也持续地受到国际关系和政治动态的影响。

整体来说,相对于欧盟、英国,美国对人工智能发展监管力度较弱,而欧盟、英国,除规划中监管机构设置有所不同,二者在人工智能产业发展政策、立法和执法重点、社会关切等方面均有相似之处。

美国监管政策及执法实践

联邦层面,虽然美国迄今为止尚未制定全面规制人工智能的联邦立法,但是美国国会已启动规范人工智能应用的多部法律立法进程。此外,相关行政部门也在持续地制定涉及人工智能的风险管理指令和规则,例如平等就业机会委员会正在考虑的人员雇佣和办公场所管理等方面人工智能系统应用的政策指引等。目前,在传统监管框架内,美国已有多部现行法规可以涵盖涉及人工智能的行为,如涉及产品责任、数据隐私、知识产权、反歧视和工作场所权利等法规同样适用于人工智能的监管。在这种分散管理型的法律框架下,相关主体应用人工智能的行为如果违反了《公平信用报告法》《平等信用机会法》《联邦贸易法(第五节)》《1964 年民权法案第七章》《美国残疾人法案》《就业年龄歧视法》《公平住房法》《遗传信息和非歧视法》等法规,将承担相应的法律责任。

州层面,美国目前暂未出现专注于人工智能监管的州一级立法。部分州的数据和隐私保护法规定了有关自动化决策的条款,与人工智能的监管有一定关联,如加利福尼亚州的《加州隐私权法》规定,消费者有权选择不使用他们的个人信息进行自动化决策,这包括评估或有关消费者工作表现、经济状况、健康状况、个人偏好、兴趣、可靠性、行为、位置或运动的决策。

最受业界关注的监管文件是NIST于2023年1月发布的《人工智能风险管理框架1.0》。该文件之所以备受关注,是因为它提出了一套有关人工智能风险识别和管理的全面指南和实践建议,旨在帮助相关方管理与人工智能系统部署相关的各类风险。《人工智能风险管理框架1.0》是在包括工业界、学术界、政府和民间主体的各利益相关方的广泛参与下制定的,可信度和接受度较高。《人工智能风险管理框架1.0》包括两部分,第一部分梳理了人工智能相关风险,并概述了可信赖人工智能系统的特征。第二部分介绍了《人工智能风险管理框架1.0》的四大核心功能,即治理、映射、测量和管理,每个功能项下还分为不同的类别和子类别,通过多元化的方法,帮助各个相关主体应对实践中人工智能系统带来的风险和潜在影响,以确保以负责任的方式开发和使用人工智能系统。

美国未指定专门机构来开展人工智能相关监管,因此,不同行政机关都在积极探索,包括以各种方式发布新规则或者发布对既有规则的解释和指引,以便将人工智能监管纳入它们已有的职责范围之内。预计未来美国将持续发布更多人工智能监管政策文件。

目前,美国与人工智能相关的监管行动主要集中在美国联邦贸易委员会和美国版权局。两个机构分别在各自职权范围内,从维护市场竞争和保护著作权的角度开展了相关执法,如在线照片存储平台Everalbum案和克里斯蒂娜·卡什塔诺娃(Kristina Kashtanova)案。

在2021年的在线照片存储平台Everalbum案中,联邦贸易委员会要求在线照片存储平台Everalbum公司删除其面部识别算法,这一算法是利用用户存储在其平台上的照片训练而成的。美国联邦贸易委员会认为,虽然Everablum告诉用户可以关闭面部识别功能,但即便用户关闭了面部识别功能,Everablum仍在继续使用用户照片训练其面部识别人工智能系统。美国联邦贸易委员会认为该行为违反了《联邦贸易委员会法案(第五节)》,属于欺骗消费者行为,并要求Everalbum删除其面部训练数据和已经开发的人工智能算法。

在2022年底的Kristina Kashtanova案中,美国版权局追溯性地重新审查艺术家Kristina Kashtanova此前已经获批的著作权登记申请,告知该艺术家她的图画小说《黎明查莉娅》的第一期注册可能会被取消,理由是人工智能部分地参与了该作品的创作。美国版权局曾经在此前批准了Kristina Kashtanova对该作品的登记,随后被广泛宣传为已知的首个在美国版权局成功登记的人工智能生成作品。此次美国版权局认为,根据美国法律,版权依赖于人类作者身份而存在,对仅由机器和人工智能创作的作品,美国版权局将不予批准其著作权登记申请。有观点指出,美国版权局在该案中的态度是对创作者的

阅读全部文章,请登录数字版阅读账户。 没有账户? 立即购买数字版杂志