中国实践
数字法治|程莹:论人工智能法的立法定位
2024-07-08 21:59  点击:14253

1720447303707587.png

程莹

中国信息通信研究院政策与经济研究所高级工程师

近年来,大模型技术颠覆性、跨越式突破引发通用人工智能新一轮发展热潮,成为各国科技产业竞争的新赛点。人工智能立法是党中央的重大决策部署,对于推动人工智能产业赋能实体经济、促进人工智能应用提升人民生活品质具有重要意义。

一、 关于人工智能立法定位

当前,人工智能技术尚处于快速发展期,治理体系正在加速构建完善。发挥好一部基础性、全局性法律的重要作用,需要重点关注以下关系。

第一,把握好促进法与管理法的关系。应兼顾好发展和安全的双重目的需求。一方面,应当明确理论研究、人才队伍、数据算力等激励制度,有效回应企业在放开知识产权限制等方面的发展诉求;另一方面,应当遵循底线思维,明确企业义务性规范、国家监管职责等监管要求,采取政企协同发力、过程管控和事后合规宽大处理相结合的敏捷治理思路。

第二,深化行业立法与一般性立法的互动关系。在条文设计上“宜粗不宜细”,可通过原则性规定指导相关行业立法出台,或通过监管沙盒等制度提供实验基础。对于自动驾驶汽车、医疗健康等行业应用领域,有关规范道路测试准入、明确医疗人工智能责任分配规则等条款,建议出台行业立法予以明确。

第三,理顺新法与旧法的关系。《中华人民共和国民法典》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等相关立法已对深度伪造、人脸识别等作了初步回应。同时,企业普遍反映,人工智能监管落地中难以把握法律和伦理、大模型评估和科技伦理审查之间的关系,存在一定的交叉重复。人工智能立法应与现有制度设计做好衔接协调,需要明确统一的评估审查制度、相关监管机构等。

第四,处理好国内法与国际治理的关系。当前,全球人工智能发展和治理处于关键窗口期,人工智能法的制定不仅要考虑国内的技术发展、产业需求,还需与国际人工智能治理的趋势和规则保持协调。应具备一定的灵活性、前瞻性和国际视野,为中国参与国际治理提供法律支撑。

二、 促进发展的人工智能立法制度设计

第一,明确人工智能法的适用范围,划定应当进行重点监管的领域,对其他领域适当放松管制。中国人工智能产业发展正处于领先的追赶阶段,对人工智能不作区分的“一刀切”式监管,不利于激励产业创新,恐进一步拖慢人工智能追赶步伐。欧盟《人工智能法》总体坚持“基于风险”的分级治理框架,风险越小、约束越少,该法大部分义务条款仅适用于高风险人工智能,对通用人工智能则重点监管具有系统性风险的通用目的人工智能。类似地,美国《行政令》的强制披露义务仅针对能力超过GPT-4的超大能力大模型,对当前已上线的大模型基本采取轻监管的态度。中国人工智能立法中应明确监管范围,综合考虑适用场景、技术能力、用户规模等因素,提出高风险人工智能、基础模型等概念并科学划定范围,减轻低风险人工智能企业负担。

第二,增加产业促进条款,为人工智能产业创新提供政策支撑。针对当前中国面临的原创理论缺失、核心供应链产业链韧性不强、受美持续打压等中长期挑战,应在人工智能法中明确相关产业促进政策,弥补中国产业短板弱项。例如:加大财政性资金投入,加强对人工智能基础技术和关键软硬件研发的资金支持;制定产业、金融、政府采购等政策,鼓励、引导社会资本向“补短板”领域聚集,支持设立投资于人工智能的科技捐赠基金;加大税收激励,对重点生态企业、重点项目的运营企业给予税收优惠,提高人工智能相关研发费用的加计扣除比例,针对创投机构对人工智能领域的投资收益探索给予税收减免等优惠;优化人才政策,探索建立适应人工智能发展需要的人才评价机制、项目管理创新机制、科技成果转化激励机制。

第三,适当放开知识产权作品等数据资源的使用限制。调研发现,国内大模型训练大多使用国外的开源数据集,国内的高质量数据集建设颇为滞后。调研还显示,当前数据集建设推进速度较慢,目前的数据主要来源于地方政府的门户网站、主要新闻网站等,在很大程度上受限于知识产权制度,难以汇聚商业数据、中国知网等高质量数据。目前,国外采取了一些积极开放举措。例如:美国司法判例倾向将使用版权内容进行模型训练纳入“合理使用”范畴;欧盟《人工智能法》规定,参与沙盒测试的企业可以将基于其他合法目的收集的个人数据用于人工智能训练,而不需要用户同意;日本政府则直接规定,人工智能训练数据不受版权法限制。中国人工智能法应积极作出知识产权制度的突破性设计,明确满足著作权“合理使用”的条件 ①,放宽企业在知识产权独占性、数据利用合目的性等方面的限制。

第四,优化法律责任制度设计,推动产业创新发展。基于应用商业形态,人工智能产业链逐渐形成:上游包括数据供给方、创作者、底层配合工具等;中游包括文字、图像、音频、视频等数字内容的处理加工方;下游主要包括各类分发平台、消费方、相关服务机构等。供应链条显著拉长,主体类型复杂多变。在出现风险事故或损害侵权时,责任分配失衡成为影响主体创新和产业投资的重要因素。当前立法倾向将责任施加给服务提供者,但从技术实践上来看,服务提供者控制能力弱,将法律责任完全施加给服务提供者不利于人工智能技术的创新发展。从制度优化上来看,建议明确基础模型和衍生利用者之间的责任分配,豁免开源模型的法律责任,建立“通知—删除”避风港规则,明确使用者责任等。

第五,针对中小企业设计部分义务减轻或免除条款,推动中小企业创新发展生态。中小企业普遍在算力数据获取、技术储备、人才招聘方面处于劣势。美国总统拜登签署行政令,要求能源、科研、教育等部门向中小企业提供资金、技术共享、人才引进等支持;欧盟《人工智能法》特地放宽了中小企业进入沙盒的条件、减免中小企业参与测试评估的费用等。调研显示,中国人工智能中小企业普遍对当前的监管制度缺乏认识储备,法律的“一视同仁”可能转化为大型企业的竞争优势,反向遏制中小企业的创新发展。中国人工智能法应当考虑对中小企业提供相关义务豁免。例如,简化其备案程序、减少登记事项,在进入沙盒条件及评测费用上予以照顾,推动更多企业进入市场,形成各规模企业配套的完整“科技产业圈”。

第六,关注人工智能治理统筹协调问题,为人工智能组织体系预留空间。英国《支持创新的人工智能监管方案》白皮书指出,由于通用大模型涉及领域的广泛性,难以将其纳入任一监管机构的职权范围,应加强中央层面的监管协调。近年来,欧美加紧推进监管组织机构调整,接连成立人工智能新机构。欧盟设立欧洲人工智能办公室,负责监督并确保《人工智能法》的有效实施,并由独立专家组成的科学小组为人工智能监管提供专业支撑。西班牙率先成立欧洲首个人工智能监管机构——西班牙人工智能监管局。美国行政令提出,建立白宫人工智能委员会,负责协调联邦政府各机构的人工智能相关工作。2024年2月,美国众议院两党领袖共同宣布成立人工智能工作组,帮助立法部门提供前瞻性立法建议。人工智能的发展和治理是国家长远战略部署的重要内容,中国人工智能法应考虑未来治理需要,为发展协调机构改革、监管协调机制创新留出探索空间。

(原文刊载于北京航空航天大学学报社会科学版)

1720447289398134.png

《数字法治》专题由上海市法学会数字法学研究会特约供稿,专题统筹:秦前松。