欧盟人工智能立法:安全优先,兼顾公平
来源: 人民论坛 作者: 发布时间: 2024-03-01

人工智能是一把“双刃剑”,在促进社会进步的同时,也带来了风险与挑战。国际社会致力于持续推动人工智能向善发展。例如,联合国教科文组织通过了首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》,明确了相称性和不损害、安全和安保、公平和非歧视等10项原则。欧盟自2018年以来持续推进人工智能的设计、开发和部署,同时努力规范人工智能及机器人的使用和管理。2024年初生效的欧盟《人工智能法案》助推此项工作达到高潮,甚至成为人工智能治理史上的里程碑。

从立法历程上看,2021年4月,欧盟委员会发布了立法提案《欧洲议会和理事会关于制定人工智能统一规则(人工智能法)和修订某些欧盟立法的条例》(以下简称《人工智能法案》),开启了人工智能治理的“硬法”道路。2022年12月形成了《人工智能法案》折中草案的最终版。2023年6月,欧洲议会通过了《人工智能法案》的谈判授权草案,并修订了原始提案。2023年12月8日,欧洲议会、欧洲理事会和欧盟委员会三方就《人工智能法案》达成协议,法案规定了对人工智能领域的全面监管。从总体上看,《人工智能法案》在欧盟建立起人工智能开发、使用的道德和法律框架,并辅以《人工智能责任指令》确保落地执行。

人工智能的定义与法案适用范围

《人工智能法案》第3条将人工智能定义为一种或多种技术和方法开发的软件,其能够影响交互环境的输出(如内容、预测、建议或决策),实现人为指定的特定目标。

该定义范围较为广泛,可能涵盖大量传统上不被视为人工智能的软件,不利于人工智能的发展和治理。因而,当前版本将人工智能定义限缩为“基于机器学习或逻辑和知识的系统”,旨在以不同的自主性水平运行,并且为了明确或隐含的目标,可以影响物理或虚拟环境的预测、建议或决策等输出。同时,删除了附件一和欧盟委员会修改人工智能定义的授权。《人工智能法案》虽未涉及生成式人工智能,但ChatGPT的出现使得立法者在修正案中增加了通用人工智能和基础模型的相关定义,并要求生成式人工智能遵守额外的透明度要求,如披露内容来源、设计模型禁止非法生成。

《人工智能法案》具有域外效力,适用于所有人工智能系统的提供商和部署者(无论是在欧盟还是在第三国建立的)以及所有分销商和进口商、提供商的授权代表,在欧盟建立或位于欧盟的某些产品的制造商,以及健康、安全或基本权利因使用人工智能系统而受到重大影响的欧盟数据主体。

人工智能的监管模式

《人工智能法案》采用了基于风险的分级监管方法(risk-based approach),根据对健康、安全和自然人基本权利的潜在风险对其进行分类并设置不同义务:一是不可接受的风险,禁止任何企业或个人部署;二是高风险,允许相关主体在履行事前评估等义务后投放市场或使用,同时要求事中、事后持续监测;三是有限风险,无须取得特殊牌照、认证或履行报告、记录等义务,但应遵循透明度原则,允许适当的可追溯性和可解释性;四是低风险或最低风险,相应主体可依据自由意志部署和使用。具体到生成式人工智能而言,由于其没有特定目的并且可应用于不同场景,故不能基于一般方式或操作模式对其进行风险分级,而应当按照开发或使用生成式人工智能的预期目的和具体应用领域分级。

人工智能的一般原则

人工智能的一般原则具体包括:人类代理和监督:人工智能系统的开发和使用必须作为服务于人类的工具,尊重人类尊严、个人自主性和功能,并由人类适当控制和监督;技术稳健性和安全性:人工智能的开发和部署应最大限度地减少意外和意外的损害,确保在出现意外问题时的稳健性以及在恶意第三方试图改变人工智能系统性能而非法使用时的弹性;隐私和数据保护:人工智能系统必须按照现有的隐私和数据保护规则开发和使用,同时处理在质量和完整性方面符合高标准的数据保护规则;透明度:人工智能系统的开发和使用方式必须允许适当的可追溯性和可解释性,让人类意识到他们在与人工智能系统进行通信或互动,并适当地告知用户人工智能的能力和局限性以及受影响之人享有的权利;非歧视和公平:人工智能系统的开发和使用必须包括不同参与者,促进平等使用、性别平等和文化多样性,同时避免欧盟或国家法律禁止的歧视性影响和不公平偏见;社会和环境福祉:人工智能系统应以可持续和环保的方式开发和使用,让所有人受益,同时监测和评估对个人、社会和民主的长期影响。

欧盟意图通过《人工智能法案》建立人工智能监管全球标准,进而使欧洲在国际智能竞争中取得优势地位。《人工智能法案》为处理人工智能系统制定了相对合理的规则,在一定程度上可以避免歧视、监视和其他潜在危害,特别是在与基本权利相关的领域。例如,《人工智能法案》列出了禁止人工智能的某些用途,公共场所的面部识别便是其一。此外,其将确定减轻风险的控制措施整合到可能出现风险的业务部门中,能够帮助各组织了解人工智能系统的成本效益,开展合规(自我)审查明确责任和义务,最终自信地采用人工智能。但同时,《人工智能法案》在风险分级、监管力度、权利保护与责任机制等方面亦有缺陷,如其采用的是横向立法,试图把所有人工智能都纳入监管范围,而未深入考量人工智能之间的不同特性,可能会导致相关风险防范措施面临无法执行的问题。(作者:浙江大学光华法学院教授、博导 程乐


地方动态

全国大学生创新发明大赛暨“英创工程”启动

中国信息协会会长王金平一行赴通用航空分会调研

政务热线建设发展与战略管理专题研修班在长沙圆满结训

中国信息协会会长王金平一行赴北京国脉互联信息顾问有限公司调研

  • 协会要闻
  • 通知公告