中国实践
数字法治|韩旭至:人工智能法的调整范围
2024-06-26 17:19  点击:18781

1719393782650506.png

韩旭至

华东政法大学数字法治研究院副院长、副教授

人工智能法的调整范围是人工智能立法最关键的核心议题之一。人工智能法,不仅需要划定哪些对象和哪些行为受该法调整,而且应当明确规定哪些行为排除在该法调整范围之外。该问题的回答与人工智能法的定位以及基本范畴的界定紧密相连,并将显著影响人工智能法的立法效果。

一、 由立法目的设定调整范围

人工智能法立法目的应当兼顾发展与安全。一方面,促进人工智能发展早已成为国家规划的一部分。2017年,国务院《新一代人工智能发展规划》提出了“到2030年人工智能理论、技术与应用总体达到世界领先水平”的目标。发展人工智能的根本目的更在于,促进经济高质量发展,服务数字中国建设。另一方面,中国历来重视防范人工智能风险。2023年4月28日,习近平在主持召开中共中央政治局会议时指出:“要重视通用人工智能发展,营造创新生态,重视防范风险。”[1]由此出发,中国人工智能立法目的,既在于推动人工智能技术创新,促进人工智能产业健康发展,又在于规范人工智能产品和服务的开发、提供、使用活动及其监督管理,维护国家安全和公共利益,保护个人及组织的合法权益。

不难看出,人工智能法立法目的之中已然蕴含了调整范围。与欧盟法上“投放市场或投入使用”的限定不同,中国人工智能法应当坚持人工智能的全链条、全流程控制。投入流通是产品责任的限制条件,而非科技创新与监管的限制。从中国相关制度来看,《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》《科技伦理审查办法(试行)》等法律法规均采取全流程规制的方法。人工智能法应当将人工智能产业链的各个环节全面列入调整范围,不仅包括人工智能的提供者,还包括开发者与使用者,由此实现从源头到终端的治理。此外,人工智能的应用及其后果是跨越国界的,人工智能法应当采取保护管辖原则,凡是可能影响中国国家安全、公共利益或者个人及组织合法权益的,都应当被纳入调整范围。欧盟《人工智能法》亦规定了域外效力条款,只要是人工智能“产生的产出用于欧盟”则适用该法。在此认识的基础上,人工智能法的调整范围也应当坚持发展导向,合理界定基本范畴以及设定排除条款,为人工智能法划定边界。

二、 以基本范畴限定调整范围

通过界定何谓人工智能,可以有效地将人工智能法的调整范围与传统科技创新和网络立法的调整范围相区分。自1956年达特茅斯会议上人工智能的概念被提出以来,人工智能经历了“三起三落”,至今已发展成为一门独立的学科。该学科主张,人工智能是指用计算机模拟人类智能行为的科学。然而,若采取这一定义,则许多自动化系统也可能被纳入人工智能的范畴,这将模糊人工智能法的调整对象。针对此问题,人工智能立法中宜采取“目的+行为+用途”定义,将人工智能界定为:为了实现专用或者通用目的,利用计算机模拟人类智能行为,用于预测、建议、决策或者生成内容等用途的技术。

需要注意的是,人工智能本身作为一种技术,不能成为人工智能法的调整对象。原因在于,法律只能调整人的行为,而不能调整技术本身。与人工行为发生关联的应该是人工智能产品和服务。虽然受国家网信办职能的限制,以《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》为代表的法规针对的是人工智能服务,但是并不能因此排除人工智能法对产品的关注。自动驾驶汽车、手术机器人等即属于典型的人工智能产品。人工智能法必须广泛关注智能科技的多维应用。

此外,人工智能法的调整对象不宜通过人工智能的要素进行拆分。通常认为,人工智能具有算法、算力、数据三要素,网络、场景要素也时常被提及作为第四要素和第五要素。若将人工智能法简单拆分为关于人工智能要素的立法,则会消解人工智能法的立法目的,而且还会模糊人工智能法与网络法的关系[2]。也就是说,智能科技、智能要素均不是人工智能法的调整对象,人工智能法只调整人工智能产品和服务的开发、提供、使用活动。

三、 调整范围的例外

为了在人工智能法中兼顾发展与安全,在人工智能产品和服务的开发、提供、使用活动中,应当设置以下四种例外。

首先,在开发活动中排除纯粹的科学研究活动。开发不等同于研发。研发是研究与开发的统称。有学者主张,“人工智能技术研发活动”是人工智能法的调整对象,包括“科学研究、技术开发和产品研制等活动”[3]。然而,若将纯粹的科研活动纳入调整范围,则大量高校实验室需要承担人工智能法的风险评估、数据质量等义务,这将阻碍人工智能科技创新。因此,应当仅将以提供人工智能产品为目的的开发活动作为调整对象,若产品和服务最终流向第三方或社会公众,则开发活动受到监管;反之,若仅仅是人工智能的科学研究,未形成产品和服务,则属于不受人工智能法调整的科学研究活动。

其次,在提供活动中排除免费开源的提供行为。开源模型的提供者实际上难以有效约束二次利用活动,而开源生态又是人工智能产业的重要组成部分。人工智能立法应当旗帜鲜明地支持相关主体建设或者运营开源平台、开源社区、开源项目,鼓励企业开放软件源代码、硬件设计、应用服务,培育共享协作的开源创新生态。在基础模型的法律责任中,开源模型应当相应地获得豁免。若对免费开源的人工智能提供者施加额外的义务,则必将对开源生态造成打击,不利于人工智能产业的发展。

再次,在使用活动中应当排除自然人因个人或者家庭事务使用人工智能的情形。《中华人民共和国个人信息保护法》第72条第1款即规定了家事处理的例外,欧盟《人工智能法》亦排除了“个人非职业活动中使用人工智能系统”的情形。数字社会中,个人事务使用人工智能的情形较为普遍,不仅智能家居设备已经走进了千家万户,而且个人还可以对大模型进行训练以满足其个性化需求。人工智能法应当重点调整的是数字能力不对等的关系,个人家庭事务行为则受《中华人民共和国民法典》调整。

最后,人工智能的军事开发利用活动,难以全面履行人工智能法的各项义务,更不可能直接向行政部门报告或直接接受人工智能监管部门的监管,因此相关规则应当另行规定。

基于上述认识,人工智能法的调整范围应规定为在中国境内从事人工智能开发、提供、使用活动及其监督管理,以及在中国境外开展人工智能开发、提供、使用活动,可能影响中国国家安全、公共利益或者个人及组织合法权益的情形。同时,针对科学研究、免费开源提供、个人或家事使用、军事开发利用四类情形设置除外条款。

(原文刊载于北京航空航天大学学报社会科学版)

1719393767129967.png

《数字法治》专题由上海市法学会数字法学研究会特约供稿,专题统筹:秦前松。