数字杂志阅读
快速下单入口 快速下单入口

欧盟《人工智能法案(审议稿)》对全球行业监管的影响及启示

来源:《中国外汇》2024年第4期

2023年12月8日,欧洲议会、欧洲理事会和欧盟委员会三方就《人工智能法案(审议稿)》(下称《审议稿》)达成“里程碑式”临时协议,就人工智能监管的关键条款全面达成一致,成为全球主要经济体首个全面且具有强制约束力的人工智能法律框架。《审议稿》溢出效应可能导致各国在人工智能领域的监管纷纷效仿欧盟方案,或将成为欧盟引领全球人工智能治理的关键助推器,对全球人工智能产业发展的影响不容小觑。

《审议稿》立法背景及概况

人工智能(AI)治理是欧盟近年来政策立法的关注重点。2018年,欧盟先后发布《欧洲人工智能战略》《人工智能协调计划》两项政策文件,初步提出欧盟人工智能发展战略规划。2019年4月,欧盟发布《可信赖人工智能伦理准则》,进一步提出伦理政策要求,确立了“可信赖人工智能”的两项必要组成部分及七项关键条件。2020年2月,欧洲委员会发布《人工智能白皮书》和《欧洲数据战略》两份有关“塑造欧洲数字未来战略”的政策文件。前者重点关注医疗、交通等公共领域的人工智能应用及风险治理;后者则旨在建立欧盟数字单一市场,推动欧盟成为全球具有竞争力的数字敏捷型经济体。

2021年4月,为更好地落实欧盟人工智能战略要求,欧盟委员会发布《审议稿》,旨在规范向欧盟市场提供人工智能系统的市场经营主体行为,确保人工智能技术发展符合欧盟价值观。2022年底,人工智能对话机器人程序(ChatGPT)等人工智能大模型技术应用带来新风险新挑战。以金融领域为例,一方面,大模型的生成“幻觉”问题,即俗称的“AI一本正经胡说八道”的情况,会导致生成内容在不易察觉的情况下变得不可信;另一方面,大模型可被恶意用于生成虚假内容,一旦过失或故意生成的误导性信息在金融系统中传播,就可能诱发金融领域运行风险。面对大模型带来的新问题,《审议稿》经过多次谈判修改,于2023年12月达成临时协议,在敲定技术细节后,预计于2024年上半年正式通过,并开启为期两年的分阶段实施期。

总体来看,《审议稿》属于覆盖全行业领域、全供应链主体、多元化议题的系统性立法,涉及金融、医疗、教育、交通、能源等多个行业领域,涵盖人工智能系统的提供者、部署者、进口方、授权代表等供应链上的多方市场经营主体,包括内容管理、版权披露、产品安全、隐私保护等多种权益保护和价值诉求。由于2024年欧洲大选临近,欧盟抓住最后的机会窗口加速立法,在国际治理博弈中谋求先机的意图明显。

《审议稿》对全球人工智能监管的影响分析

率先确立关键规则,意图在新技术领域复现“布鲁塞尔效应”

欧盟作为全球首批制定人工智能相关法律制度的经济体,可以凭借其巨大消费市场的吸引力,通过单方面制定法律制度,对全球商业环境和规则体系形成“布鲁塞尔效应”(布鲁塞尔效应是指在欧盟凭借自身的市场力量,单方面地监管全球市场的一种现象),进而获取谈判资本和再次利益分配。具体来看,欧盟通过《审议稿》在人工智能监管领域确立了如下几项核心制度,可能会被全球各国效仿。

一是确立了人工智能监管“基于风险”的治理思路,确立了四级风险体系。《审议稿》总体围绕“基于风险的框架”展开,包括不可接受风险(禁止类)、高风险(配置法定义务)、有限风险(配置轻度透明性义务)、低风险(豁免适用)。其中,不可接受风险包括社会信用评分、在工作和教育中的情绪识别系统、预测性警务等。在谈判过程中,是否应禁止“在公共场所将实时生物识别系统用于执法”分歧最大。例如,欧盟理事会提出恐怖袭击等部分例外,欧洲议会则强烈反对设置任何例外。在最终妥协方案中,规定例外情况仅适用于恐怖袭击、搜寻特定情况的受害者等少数情形,且需司法授权并遵循严格的时间地点限制。“高风险”则包括了医疗设备、智能网联汽车、招聘、教育、选举、关键基础设施、情绪识别系统等八类场景应用,金融领域不在此列。

二是将通用人工智能(GPAI)单列于“四级风险”框架之外,并针对普通GPAI和具有系统性风险GPAI设置不同层次的义务内容。一方面《审议稿》明确通用人工智能的概念范围。将参数、算力作为限定通用人工智能范围的重要标准,初步将通用人工智能界定为超过10亿参数,具有显著通用性的人工智能;又将其中每秒浮点运算(FLOP)超过1025,在价值链中大规模传播的高影响力模型界定为具有系统性风险(Systemic Risk)的通用人工智能,例如,GPT-4、Gemini等。另一方面《审议稿》区分义务要求。对于普通GPAI提供者,仅需承担提供技术文件、训练数据、版权信息等有限的透明度义务,对于系统性风险的GPAI提供者,则需额外承担红队测试、严重事故报告、基础设施网络安全保护、能耗报告等更重义务。有关智库指出,欧盟大部分人工智能企业不是GPAI提供者,而是部署者,因此加强对上游基础模型的监管,实际上有助于减轻欧洲中小企业的负担。如金融领域使用大模型向欧盟市场提供服务,则应当遵守上述规定。

三是将基本权利影响评估、透明度作为高风险人工智能系统提供者需要承担的重要义务要求。在基本权利影响评估方面,要求由监管机构指定的第三方机构评估人工智能对隐私、平等和言论自由等基本权利的潜在影响,作为高风险人工智能系统进入欧盟市场的准入条件。联合国人权事务高级专员就《审议稿》致欧盟公开信指出,基本权利影响评估是建立“以人权为本”的人工智能监管的关键部分,将对全球其他经济体人工智能监管框架产生重要影响。欧盟委员会主席冯德莱恩在协议达成后表示,《审议稿》将欧洲的价值观带入了一个新时代。在透明度义务方面,《审议稿》既要求人工智能市场经营主体对监管部门披露相关信息,例如高风险AI应在欧盟公共数据库登记;又要求满足用户知情权,例如三方协议中要求情感识别系统有义务告诉用户他们在与AI互动,生成式人工智能需对外披露训练数据中的版权信息等。

力求平衡发展与安全,对人工智能产业影响尚待观察

从正面作用来看,《审议稿》透露的监管指向之一是重视减轻中小企业合规负担,以激

阅读全部文章,请登录数字版阅读账户。 没有账户? 立即购买数字版杂志