一、欧盟《人工智能法》的主要特点
(一)以风险分级为框架的规制模式
欧盟《人工智能法》将人工智能系统可能产生的风险划分为四个等级并实施不同监管。一是不可接受的风险,如操纵用户、不当数据评估、无区别面部抓取、推断个人身份等人工智能系统要禁用。二是高风险,要建构相应的人工智能系统合规义务。应用于关键领域,投用前需合格评估、保障透明度并回应公民投诉。三是有限风险,如聊天机器人等要在用户知情和可控性方面提出较高要求。四是轻微风险,如推荐系统等相应监管要求较少。
(二)强调通用人工智能系统规制要求
一是全产业链的合规性,系统提供商要助力下游企业合规并提供技术文件。二是透明度要求,开发者要遵循欧盟《版权指令》明确标注保障透明度。三是执法机构的保障,欧盟还设专门办公室监测。
(三)权利保障与鼓励创新并举
该法贯彻了权利保障与鼓励创新并举的基本立场,风险管控上该法要求成员国建立专门的人工智能监管机构,强调预防措施的重要性;权利保障上强调保护个人基本权利;鼓励创新力上制订了支持中小企业发展的措施。
二、欧盟《人工智能法》的影响
(一)推动人工智能产业合规发展
该法将促进人工智能在不同场景下安全应用和合规体系建立。一是该法使欧盟境内外企业面临更严格的合规要求,影响跨国企业业务模式、数据流动和隐私政策。二是该法将影响企业研发方向和投资架构,深刻改变未来人工智能和数字产业的生态系统。
(二)形成全球人工智能行业标准
欧盟在人工智能领域的立法实践将为其他国家提供重要参考框架。一是塑造法律规制模式和创新发展理念,推动产学研协同合同,明确责任赔偿标准。二是强调人工智能技术的伦理和透明度,提升技术可信度和可接受度。
(三)塑造人工智能国际治理生态
该法基于欧洲传统价值理念的规范体系有望成为关键参照,产生“布鲁塞尔效应”影响他国政策法规走向。
三、对我国的启示
(一)完善立法模式和技术选择
我国虽有数据分类分级保护制度的相关法律,但监管分散且缺乏按风险分级的措施。我国人工智能立法需不断完善更新:一是构建一套全面系统的法律框架,以全面规范人工智能技术的开发、应用和监管流程。二是制定灵活创新的法律规范,以适应人工智能技术的快速发展和不断拓展的应用场景。三是建立健全风险评估管理机制,构建全程风险管理体系,保障人工智能系统的安全稳定运行。
(二)抓住企业监管的“关键少数”
人工智能的立法规制必须抓住企业监管的“关键少数”,实现行业引领作用。一是强化企业在人工智能伦理和透明度方面的管理,承担相应合规责任。二是企业必须保护个人数据和隐私,实现行业自律,保障公民权利和社会公平。三是鼓励构建自动化合规体系,帮助企业降低合规成本,有效遵守法律法规。
(三)建设人工智能立法新高地
一是推动国家综合性立法与自贸试验区立法结合。二是参与国际合作和标准制定,增强在技术标准和规制范式上的国际话语权。
(四)完善人工智能多元规范体系
一是由政府牵头多部门协同制定人工智能监管法律和政策,并对企业进行合规性审查。二是行业机构应进一步细化相关监管措施,确保合规要求具有落地性。三是社会大众参与完善评价体系,畅通表达诉求,增进理解信任,推动构建以用户友好度为导向的评价体系。■(原文作者张文亮系中国人民大学法学院副教授;通讯作者肖永平系武汉大学国际法治研究院院长、人文社会科学资深教授)
《新华智库研究》是新华社第一本聚焦智库领域的学术类刊物,由新华社党组领导、新华社智库学术委员会指导、瞭望周刊社主办的智库类学术期刊,致力于展示国内外优秀智库研究成果,刊发探索智库建设规律的学术文章,打造中外智库合作交流平台。
投稿邮箱:xhzkyj@163.com
订阅热线:010-63151858