- +1
赛迪智库|美欧人工智能治理政策对比分析及启示
近期,生成式人工智能技术掀起了新一轮科技创新浪潮,在带来生产力革新的同时,也引发了网络安全、算法歧视和道德伦理等风险隐患,美国和欧盟为此加速制定人工智能治理政策。赛迪研究院网络安全研究所认为,美国采取的治理举措宽松温和,以行业自律为主要手段,在促进技术发展的同时保证其安全可靠;欧盟则采取了较为严格的限制举措,从国家法律层面对人工智能系统实施风险定级,并分别提出规制路径,强化其在新一代人工智能技术浪潮中的国际影响力与战略主动权。美国和欧盟人工智能治理的相关举措对中国有一定的借鉴意义。
一、美欧人工智能治理政策文件密集发布
美国的人工智能治理政策,其核心是以技术的发展应用为重点,逐步向加强监管靠拢。自2022年美国白宫发布《人工智能权利法案蓝图》以来,又发布了多个原则性规定,指导人工智能系统的设计、开发、部署和使用,鼓励行业自愿遵守相关原则并进行自我监管,逐步形成了美国人工智能治理的基本框架。2023年,随着生成式人工智能等技术的不断成熟,其存在的算法歧视、数据过拟合和数据泄露等风险日益凸显。为确保生成式人工智能技术的安全性和可靠性,美国政府对人工智能的监管力度逐渐加大,且发布系列政策文件强化人工智能治理,确保和维护美国在该领域的霸主地位,降低人工智能安全风险。
欧盟采取强监管风格,推出人工智能领域的“GDPR”。2023年6月,欧洲议会全体会议通过了2021年4月由欧盟委员会提出的《人工智能法案》谈判授权草案。该法案草案是欧盟范围内人工智能治理方面统一的法律框架,管辖适用范围宽泛,可用于规范全部系统输出数据在欧盟使用的系统提供方或使用者。其严格禁止销售和使用对人们安全、生计和权力构成明显威胁的人工智能技术,违规公司可能被处以其全球年营业额的7%或4000万欧元的高额罚款。欧盟对人工智能监管的风格趋向强硬,期望通过设立全球范围的规则对人工智能进行全面监管。该法案草案通过对人工智能系统风险等级和治理策略划分等级,设定了普适、 全面的人工智能监管方法,如同《欧洲通用数据保护条例》(GDPR)。预计,它将对全球人工智能监管产生重要影响。
二、美欧对人工智能治理的异同分析
在治理重点方面,美欧均将算法歧视治理放在人工智能治理的首要位置。
算法歧视是指人工智能系统在决策或提供服务时对某些个体或群体产生不公平的影响,这种歧视可能基于数据偏见、人类偏见或系统设计缺陷等因素,给个人和社会带来潜在风险。一是不平等对待风险。例如,在就业、贷款和保险等领域不公平的结果,会带来对特定群体的偏袒或歧视。二是伦理道德风险。算法可能侵犯个人隐私权、违反伦理准则,对个人权益造成损害。三是社会分裂风险。算法歧视可能加剧社会不平等及深化分裂,激发不满情绪,造成动荡。虽然欧美在 对人工智能风险的定义划分和治理态度上存在一定差异,但算法歧视是双方共同认可且最为关注的治理重点。美国《人工智 能权利法案蓝图》将“算法歧视保护”作为人工智能设计部署的五项基本原则之一,《人工智能问责政策(征求意见稿)》中也将“算法公平”列为人工智能审计和评估的重点领域。欧盟《人工智能法案》谈判授权草案更是将带有算法歧视风险的人工智能系统归类为对人类安全造成不可接受风险的人工智能系统,禁止在欧盟范围内部署。
在治理态度方面,欧盟高度重视,美国则持宽松态度。
欧盟高度重视人工智能安全风险,将其分为不可接受风险、高风险、有限风险和低(无)风险四个风险级别。其中,带有算法歧视的系统、基于敏感属性的生物识别分类系统等被划分为不可接受风险系统,医疗等关键领域受管制的部分系统被划分为高风险系统,其他系统为有限风险或低(无)风险系统。欧盟对不同风险级别的系统设置了不同的监管措施,以确保人工智能的伦理和法律准则得到遵守。相形之下,美国对人工智能安全风险问题的看法相对宽松,虽然也面临人工智能安全挑战,但并未像欧盟一样对人工智能独有风险进行专门研究并分类分级, 而是重点关注算法歧视引发的公平问题与数据隐私安全保护这两个风险点,以求在维护公平和保护隐私的同时,保持本国人工智能技术创新和商业竞争力。
在治理手段方面,美国倾向于行业自律,欧盟则通过立法途径解决。
美国联邦政府和企业普遍更加注重人工智能系统的性能和创新,对算法歧视等安全风险并没有明确的立法和监管框架。联邦政府层面更倾向于通过采用自律和行业准则等方式解决相关安全风险。例如,敦促企业制定自己的AI伦理准则,并通过内部审核和自我监督来减少算法歧视风险。此外,一些学术机构和非营利组织也在推动人工智能系统的公平性和透明性研究,并提供工具和指导方针来减少算法歧视风险。欧盟则倾向于通过立法途径对人工智能进行严格监管与处罚,以确保技术和系统的公正性与透明性。欧盟2021年发布的《欧洲人工智能法规》,对高风险人工智能系统的使用提出了严格要求,并对不合规行为进行罚款和制裁,以限制和减少人工智能系统的算法歧视风险;《人工智能法案》谈判授权草案作为全球首部人工智能管制法案,也从法律层面对高风险人工智能系统做出禁止部署要求,并对违规企业处以高额罚款。
三、几点思考
人工智能作为具有重大颠覆性意义的新一代信息技术,正在深刻重塑全球竞争格局。建议借鉴美欧相关举措,从法律法规、标准和产业等层面发力,完善人工智能治理体系,促进中国人工智能健康发展。
完善人工智能治理法律法规。法律法规是治理的依据。国务院2023年度立法工作计划明确,将预备提请全国人大常委会审议人工智能法草案。为此,建议加快立法进度,明确人工智能治理规则。
一方面,要明确人工智能网络安全监管规则。不得将人工智能用于网络诈骗、网络和数据攻击、隐私和商业秘密窃取等,不得利用人工智能生成和传播虚假信息、暴力色情信息等。另一方面,应建立和完善人工智能应用算法歧视和伦理审查等规则。鼓励通过社会实验等方式,密切跟踪人工智能技术应用于教育、医疗、养老和交通等领域可能带来的算法歧视和道德伦理问题。比如,人工智能大规模使用导致的结构性失业问题,人工智能导致事故后的权责判定问题,以及沉迷人工智能带来的青少年心理健康问题等,据此,研究制定人工智能算法歧视、道德伦理审查规则和标准。鼓励通过行业自律形式营造积极应对人工智能算法歧视、道德伦理问题的良好氛围。
促进人工智能安全服务产业发展。网络安全的本质是技术对抗,强化人工智能治理离不开网络安全技术和产业的有力支撑。一方面,要引导网络安全产业各方为人工智能研发机构提供安全服务,做好人工智能算法模型训练数据集的清洗,避免训练数据集带有歧视性内容;做好人工智能生成内容合规性检查,制定网络和数据安全事件应急处置举措。另一方面,应引导网络安全产业各方为人工智能应用机构提供安全服务,从技术层面甄别有关内容是否为人工智能生成;强化人工智能使用机构的漏洞挖掘、病毒查杀、边界防护、入侵防御、数据保护和追踪溯源等能力。
为人工智能技术应用创新留足空间。人工智能治理的目的是促进技术应用创新发展。作为新技术新应用,人工智能应用大多具备舆情动员能力,需经有关部门评估后方能上线应用。
一方面,考虑到人工智能应用后带来的网络安全和算法歧视等风险存在一定的未知性,建议在新技术新应用评估过程中适度允许研发机构增加内测时间、扩大内测用户规模,给予人工智能应用一定的上线观察期。另一方面,应推进人工智能安全风险分类分级标准,在法律法规层面探索建立责任豁免机制,在人工智能开发者严格遵守有关法律和标准的条件下,如果出现较低风险人工智能网络安全和算法歧视事件,则可赋予开发者免责机会,以避免责任失衡导致技术创新发展动力被遏制。
(作者周千荷、郝依然、张博卿均来自赛迪研究院)
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2024 上海东方报业有限公司