中国实践
数字法治|郑志峰:人工智能立法的一般范畴
2024-05-05 16:09  点击:14303

1714897066119782.png

郑志峰

西南政法大学民商法学院副教授

数字法治政府研究院研究员

近年来,以AlphaGo、谷歌自动驾驶汽车、ChatGPT等为代表的新一轮人工智能技术应用不断涌现,在为社会经济发展赋能的同时,也对现有的法律秩序提出了挑战,如何通过立法对人工智能进行治理成为各国亟待应对的重要课题。早在2017年2月,欧洲议会就通过了《就机器人民事法律规则向欧盟委员会的立法建议》(以下简称《机器人技术民事法律规则》),针对人工智能提出一系列大胆的监管设想。2021年4月,欧盟委员会发布《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》(以下简称《人工智能法》)提案,更是掀开了全球人工智能立法的新篇章。2023年6月,欧洲议会以高票通过了关于《人工智能法》的授权草案,进入确定法案最终条款的谈判阶段,离法案的正式生效只有一步之遥。国内层面,2017年7月,国务院出台《新一代人工智能发展规划》,明确提出“制定促进人工智能发展的法律法规和伦理规范”。2022年8月,深圳市出台《深圳经济特区人工智能产业促进条例》,这是全国首个关于人工智能治理的地方性法规。随后,上海市出台了《上海市促进人工智能产业发展条例》。2023年6月,国务院办公厅印发《国务院2023年度立法工作计划》,明确提出“预备提请全国人大常委会审议人工智能法草案”。2023年7月,《生成式人工智能服务管理暂行办法》正式出台,成为全球首个针对生成式人工智能的专门法案。2023年8月,由学者牵头起草的《人工智能法(示范法)1.0》(专家建议稿)出台,标志着我国人工智能立法正式迈入大规模集中立法的新阶段。

人工智能立法离不开人工智能法学研究的理论支撑。为回应人工智能治理的现实需求,我国学界迅速展开讨论,短短六年出现了一大批优秀的研究成果,助推了《数据安全法》《个人信息保护法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规的制定。然而,相关研究整体上呈现出明显的部门法色彩和具象化特征,聚焦于机器人法律人格、自动驾驶汽车侵权责任、人脸识别的隐私风险、算法歧视、算法黑箱、数据权属、个人信息保护等具体问题的探讨,如何从宏观上构建一套系统的人工智能立法体系尚付之阙如,有关人工智能立法的一般范畴尚未达成共识。为展现人工智能立法的全域图景,我国人工智能立法应建立整体布局,围绕人工智能如何立法、立哪些法应有清晰的概念和规划。为此,本文试图透过纷繁复杂的人工智能具象迷雾,构建人工智能立法的一般范畴,明确立法的基本层次、规范类型、内容要素以及思维策略,解决人工智能立法从何开始、立什么法、立什么内容以及怎么开展立法等一般性问题,为我国人工智能立法工作提供智力支持。

一、人工智能立法的基本层次

人工智能立法从何开始是需要首先解决的问题。对此,我们需暂时远离具体问题的泥淖,将视线重新放回人工智能这一概念本身,认识人工智能的三重面目,继而确立人工智能立法的三个基本层次。

(一)智能科技立法

从历史上看,人工智能不过是人类文明演进中出现的一种新兴科技,但为何人工智能引发的法律挑战如此的特别,人工智能究竟与其他科技有何区别?这是我们认识人工智能的第一步,也是人工智能立法的第一层次,即智能科技立法。对此,我们需要掀开人工智能作为智能科技的神秘面纱,揭示人工智能不同于历史上以往其他科技的独特之处,解开人工智能冲击现有法律秩序的谜题,进而才能明确人工智能立法的基本需求。

无论我们采取何种定义路径,人工智能的关键都在于其独有的高度智能属性,即可以像人类一样理性地思考和行动,这是人工智能区别于其他科技的根本所在,也是人工智能对于现有法律秩序造成前所未有冲击的关键。具体来说,现行几乎所有的法律都遵守一个基本假设,即所有的决定都是由人类作出的。人类是唯一的理性主体,唯有人类可以从事驾驶汽车、诊断疾病、艺术创作等社会活动,法律也只调整人类的行为以及由此产生的社会关系。然而,人工智能恰好是模拟人类理性的技术,能够像人类一样充当司机、医生、艺术家等各种角色,引起社会关系的产生、变动和消灭。人工智能作为人类之外的自主力量参与到社会活动的运转中,这直接打破现行法律规则的基本假设,由此带来巨大冲击。故此,人工智能立法首先是针对智能科技的立法,核心是以人类智能为基础构建的法律秩序如何应对机器智能崛起引发的挑战。

智能科技立法解决的是机器智能提出的一系列法律挑战,其中,最为核心的是人工智能的法律地位问题。随着人工智能日益智能化,人机之间的关系边界逐渐模糊,机器人越来越向人类靠拢,在模拟人类智能的道路上越走越远,人工智能能否取得法律人格就成为一项重要课题。对此,欧盟《机器人技术民事法律规则》提出,“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”从目前情况来看,赋予人工智能电子人的法律人格时机或许还不成熟,但明确人工智能的法律地位是开展后续立法的前提,直接关系相关权利、义务、责任规则的构建。例如,如果人工智能获得法律主体地位,那么围绕自动驾驶汽车侵权责任的规则将截然不同,现有的机动车交通事故责任、产品责任很可能不再适用,雇主责任甚至由人工智能独自承担责任的模式将会出现。同样,如果人工智能被视为法律主体,那么人工智能创作物的著作权规则也将改写,现有的作品署名、著作权归属、著作权保护等规则都将修订。总之,机器智能几乎冲击着现行法律规则的每个角落,人工智能立法首先需要解决智能科技的立法,应对机器智能提出的各种挑战。

(二)智能要素立法

人工智能一词诞生于20世纪50年代,有着60多年的发展历史,其间经过多次热潮与低谷。事实上,当前人们对于人工智能的各种讨论并不是什么新鲜事。例如,早在1996年,巴塔亚·弗里德曼(Batya Friedman)和海伦·尼森鲍姆(Helen Nissenbaum)撰写的《计算机系统中的偏见》一文中,就构建了一套评估和回应机器人不公平歧视问题的框架;而1980 年《纽约时报》的新闻标题就出现了“机器人正在抢走你的工作”。为此,我们不禁要思考,新一轮人工智能热潮与此前的人工智能浪潮到底有何区别?对此,一种普遍的认识是,得益于数据、算法以及算力三大要素的全面突破,人工智能成为数字时代世界各国竞相追逐的技术高地。无论人工智能如何百般变化,抓住智能三要素就抓住了机器智能的关键,这正是机器智能的奥秘所在。基于此,人工智能立法的第二层次为智能要素立法,具体围绕数据、算法以及算力三要素展开。

数据是人工智能的基础养料,没有数据就没有智能,因此,数据立法成为智能要素立法的基础问题。对此,各国高度重视数据立法。例如,欧盟在数据立法方面异常活跃,先后出台了《通用数据保护条例》《欧洲数据战略》《欧洲数据治理法案》《数字服务法案》《数字市场法案》等系列法案。《欧洲数据战略》就明确指出,“过去几年,数字技术已经改变了经济和社会,影响了所有的活动领域和欧洲人的日常生活。而数据处于这场转变的中心,并且还会有更多的改变。对于企业而言,数据是开发人工智能产品和服务必不可少的资源。”同样,美国也认识到了数据要素治理的重要性,相继发布了《大数据研究和发展计划》《联邦大数据研发战略计划》《联邦数据战略与2020年行动方案》等系列政策。考虑到大数据是算法的燃料,对数据的监管实际上从源头影响人工智能行业的发展。故此,数据立法对于人工智能的治理具有基础意义,具体则需要区分战略数据、人格数据以及生产数据三个层次,核心是协同推进数据的安全与利用。

与此同时,算法作为人工智能的本质,是机器智能的直接来源。如果说人工智能是一套解决问题或者完成特定任务的智能系统,那么算法就是这套智能系统的灵魂,决定着智能系统的解题思维与方法。当前,算法在社会经济发展和公共治理中扮演着重要角色,算法应用的巨大积极作用与负面影响亦日渐引人注目,算法挖掘引发的个人信息泄露、自动驾驶算法的事故风险、智能推荐算法带来的信息茧房、深度合成算法带来的虚假信息、商业算法实施的算法垄断以及算法黑箱、算法歧视等各种问题已经受到社会高度关注。基于此,针对算法进行专门立法成为数据立法之后的新领域,构成智能要素立法的又一个基础问题。对此,美国《2019年算法问责法案》《2022年算法责任法案》、加拿大《自动化决策指令》、新西兰《算法宪章》以及我国《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》等都是算法立法的重要尝试。需要注意的是,算法与数据要素常常融合一体发挥作用,数据立法与算法立法也常常呈现犬牙交错的状态。例如,《互联网信息服务算法推荐管理规定》就多处涉及数据治理,而《个人信息保护法》也关注到了自动化决策的规制问题。

相较于算法和数据,算力问题受到了极大的忽视。2020年8月,美国安全和新兴技术研究中心发布报告《人工智能三要素以及对国家安全战略的意义》指出,“当前算力在很大程度上被大家所忽视,但实际上算力支撑了大量现代人工智能的进步。人工智能的大量进步不是通过让系统变得更像人类,或者通过向计算机传授更多的人类知识,而是通过赋予机器学习系统更强大的处理能力来自主学习。从这个角度来看,算力很可能是智能三要素中最为重要的部分。”实践中,各国围绕算力的明争暗斗一直在上演,如美国对于先进计算机芯片的严格管控就是人工智能时代算力政策的直接体现。因此,算力立法也是智能要素立法必不可少的组成部分。例如,《深圳经济特区人工智能产业促进条例》第三章“产业基础设施建设”特别提到算力基础设施、计算平台、算力资源等建设,强调了算力规制的重要性。《上海市促进人工智能产业发展条例》第13条、第14条也明确提出,加强算力基础设施规划,推动公共算力基础设施建设,实施“东数西算”工程,保障人工智能产业发展算力需求。总之,如何通过立法保障算力安全、可用、够用是智能要素立法的重要课题。

(三)智能应用立法

人工智能是一项通用性技术,可以赋能不同的应用场景。例如,人工智能与传统汽车结合就产生了自动驾驶汽车,人工智能应用于医疗领域就出现了医疗人工智能。近来备受瞩目的GPT-4等生成式人工智能,更是迈向通用人工智能的重要一步,其通用能力能够在抽象、理解、视觉、编码以及数学、医学、法律、对人类动机和情感的理解等各类型和各领域的场景中广泛应用。不同应用场景中的人工智能各有特点,其法律风险、表征以及回应机制各不相同。故此,人工智能立法的第三层次为智能应用立法,即针对不同应用场景中的人工智能引发的法律挑战进行回应。

从立法规制的角度来看,对于各种场景下的人工智能应用形式,需要特别注意两组区分:第一组是高风险人工智能与低风险人工智能。不同应用场景的风险属性不同,这直接影响对应的人工智能应用形式。对此,欧盟《人工智能法》就将人工智能应用场景分为“极小、有限、高、不可接受”四类风险等级,等级越高的应用场景受到的限制越严格。《上海市促进人工智能产业发展条例》第65条也规定,对高风险的人工智能产品和服务实行清单式管理,遵循必要、正当、可控等原则进行合规审查。对中低风险的人工智能产品和服务采用事前披露和事后控制的治理模式,促进先行先试。第二组是辅助型人工智能与替代型人工智能。替代型人工智能强调以机器智能取代人类智能进行决策,将人类排除在决策之外,如自动驾驶汽车就是典型的替代型人工智能。而辅助型人工智能强调以机器智能辅助或者增强人类智能,人类与机器共同决策,如医疗人工智能、司法人工智能就属于辅助型人工智能。这两种人工智能的人机关系有着明显区别,相关的权利、义务、责任规则也自然不同。

各国普遍关注智能应用的立法。例如,我国针对自动驾驶汽车就出台了《智能网联汽车道路测试管理规范(试行)》《智能网联汽车道路测试与示范应用管理规范(试行)》《关于加强智能网联汽车生产企业及产品准入管理的意见》《深圳经济特区智能网联汽车管理条例》《上海市浦东新区促进无驾驶人智能网联汽车创新应用规定》等;针对人脸识别出台了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》(以下简称《人脸识别技术司法解释》)。2022年7月,科技部等六部门联合印发《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》指出,推动人工智能场景创新对于促进人工智能更高水平应用、更好支撑高质量发展具有重要意义。随后,科技部发布《关于支持建设新一代人工智能示范应用场景的通知》,提出首批支持建设的十个示范应用场景,分别是智慧农场、智能港口、智能矿山、智能工厂、智慧家居、智能教育、自动驾驶、智能诊疗、智慧法院以及智能供应链。这为今后智能应用的立法指明了方向。

二、人工智能立法的规范类型

人工智能立法需要解决立什么法的问题,即明确立法到底采用何种类型的法律规范。从历史上看,规范类型的选择需要服务于科技法治理的目标,既要克服科技不足、促进科技发展与应用,也要规制科技过度、预防和应对科技带来的风险,由此形成了产业促进法与风险治理法两组规范类型。人工智能作为一种新兴科技,可以在现有规范类型上进行更新。

(一)人工智能产业促进法

对于科技的立法首先应当有助于鼓励科技发展和经济效应的转化,解决科技发展不足的困境。从历史上看,科技通常具有直接转化为经济效应的能量,因此市场本身就是刺激科技发展的重要动力,科技的发展通过自发的市场手段就可以得到很好的激励,法律要做的是扫清市场障碍、建立有活力的市场环境,由此产生科技市场法。法律通过构建合理的交易规则、产权规则、竞争规则等来发挥市场资源配置的作用,以充分刺激科技活动的展开,鼓励人们革新技术,促进经济的发展。与此同时,市场作为一种资源调配的方式并不是万能的,存在外溢性失灵、消费性失灵、排他性失灵以及创新过程失灵等各种缺陷。为克服市场的不足,需要政府的介入与干预,由此出现科技政策法。第三次工业革命以来,科技政策的作用不断凸显,更加注重政策导向和机制作用,从而发展出一套旨在促进科技进步、转化和创新的特殊法律制度。特别是随着国际竞争的加剧,科技越来越成为衡量国家竞争力的关键要素,科技的政治属性日益强化,这使得国家通过政策引领科技发展成为趋势,科技政策法的重要性得到前所未有的增强。同样,人工智能也需要产业促进法的保障。

其一,人工智能市场法。市场与科技具有天然的紧密关联,市场作为资源调配的一种方式,可以对人工智能科技活动起到激励作用。一方面,传统市场法构建了一套成熟的交易规则、产权规则以及竞争规则,对于激发人工智能科技市场的活力具有基础性作用;另一方面,人工智能也有不同于传统科技的特点,这意味着需要配置与之相适应的新市场法规则。例如,新一轮人工智能热潮是建立在海量数据基础上的,数据成为人工智能产业发展最重要的生产要素,这就要求我们围绕数据构建新的产权规则、交易规则以及竞争规则。2018年6月,日本经济产业省发布《利用人工智能和数据的合同指引》,旨在为企业签订数据利用合同或利用人工智能技术开发利用软件合同提供参考,试图更新数据相关的交易规则。与此同时,我国也相继发布《关于构建更加完善的要素市场化配置体制机制的意见》《数据安全法》《要素市场化配置综合改革试点总体方案》《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》(以下简称“数据二十条”)等,为加快培育数据要素市场以及流通规则提供顶层设计。再比如,算法和数据成为企业获取竞争优势的重要工具,算法合谋、数据垄断成为人工智能时代市场法规制的重点。为此,2021年2月,国务院反垄断委员会发布《国务院反垄断委员会关于平台经济领域的反垄断指南》,数据和算法两个关键词在垄断协议、滥用市场支配地位、经营者集中等章节被频频提及。而地方层面,《深圳经济特区数据条例》第四章专门针对数据要素市场的公平竞争问题作了规定。此外,《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》也都提到遵循“市场导向”,利用市场机制发展人工智能。

其二,人工智能政策法。鉴于市场对于人工智能科技活动可能存在消极影响,如市场回报不足导致科研创新投入不够、垄断行为导致竞争失灵等,政府需要进行干预,这就是政策法的作用。现有政策法,主要从科技人才、科技经费、政府举措、成果归属四个方面着手,如我国《科学技术进步法》《促进科技成果转化法》《国家科学技术奖励条例》等,通过及时更新可以继续发挥作用,保障我国人工智能产业发展。例如,《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》就充分贯彻了政策法的思维,前者强调“强化投融资、研发、人才、市场等各种政策的支持”,后者提出“在资金、产业用地、人才等方面对人工智能产业予以支持”。与此同时,《人工智能法(示范法)1.0》(专家建议稿)也设置了“人工智能支持与促进”专章,强调专业人才培养、财政资金支持、国家机关先行先试等政策支持。需要注意的是,政策法需要贯彻到人工智能立法的三个层次,而不仅仅是智能科技层面。故此,我们在制定人工智能产业促进法的同时,也需要关注智能要素、智能应用的产业促进问题。例如,美国联邦层面2016年以来相继发布了4版自动驾驶政策以及1项综合计划,在法律法规尚未修订时为自动驾驶汽车上路测试、应用以及运营提供政策豁免,并整合38个联邦部门、独立机构、委员会和总统行政办公室在自动驾驶领域的工作,为自动驾驶汽车提供全方位的政策支持。再比如,欧盟《欧洲数据战略》明确提出加大数据领域的投资,认为私人投资和公共投资对于推进数据经济的发展都至关重要,并提出将在2021年至2027年投资一个与欧盟数据空间和云基础设施整合有关的具有重大影响力的项目。

(二)人工智能风险治理法

几次工业革命的发展历史已经充分证明,科技是一把双刃剑。一方面,科技能够为社会经济发展注入强大的活力,促进市场繁荣和社会发展,全方位提升人们的生活水平,推动社会文明的进步;另一方面,科技存在异化和滥用的风险,从而带来一系列负面影响。从历史上看,飞机、汽车、轮船等发明都极大地方便了人们的出行,疫苗、药品等医疗创新提高了人们的健康水平,电能、核能等能源技术的应用为社会提供了发展所需的能源,但这些科技也带来了交通事故、医疗事故、核事故等风险。因此,法律需要规制科技发展带来的风险,以解决科技过度的问题,这就构成风险治理法。同样,人工智能技术也不可避免地带来了许多新风险,需要配套相应的风险治理法。

对于人工智能引发的风险,有学者将其总结为伦理风险、极化风险、异化风险、规制风险以及责任风险,有学者则将之归纳为人工智能不确定的技术风险、人工智能偏离设计应用的风险、人工智能被非法使用的风险、人工智能的社会风险以及人工智能的伦理风险。笔者认为,人工智能的风险治理法可以从三个层次观察:其一,从智能科技层面出发,法律需要解决机器智能带来的风险,集中体现在机器智能取代或者辅助人类智能引发的人机秩序混乱,人类智能主导的社会秩序如何兼容机器智能的强势闯入。对此,欧盟《机器人技术民事法律规则》《关于人工智能系统运行的责任立法倡议》以及韩国《机器人基本法案》等就是应对这一层次风险的努力。其二,从智能要素层面出发,需要解决算法、数据与算力各自引发的风险。相较于数据与算法,算力要素更为中性,算力风险主要是一种静态的安全风险,而算法与数据风险则呈现出明显的动态特征,安全与滥用风险并存,且表现形式复杂、多样和开放。例如,《互联网信息服务算法推荐管理规定》重点围绕算法风险展开治理,就算法推送内容虚假低俗、算法杀熟、算法沉迷、算法调度侵害劳动者权益保障等各种算法风险作了针对性规定。其三,从智能应用层面出发,则需要解决自动驾驶汽车、医疗人工智能、人脸识别、生成式人工智能等具体应用场景中各自存在的风险。不同应用场景中的风险表现不同,如自动驾驶汽车、医疗人工智能等会造成物理世界人们人身财产的直接损害,而人脸识别、生成式人工智能等主要影响个体的人格权益与知识产权。

当然,人工智能产业促进法与风险治理法并非泾渭分明的独立版块,而是相互交错关联的有机整体,常常需要组合在一起才能发挥效用。以数据治理为例,我们既需要从产业政策方面给予激励和引导,也需要构建科学合理的数据市场规则,同时还需要规制数据活动对于个体隐私和个人信息保护带来的风险。对此,我国出台《要素市场化配置综合改革试点总体方案》《数据安全法》《个人信息保护法》以及“数据二十条”等法律政策,就是试图从三个方面进行数据治理。同样,无论从智能科技、智能要素、智能应用任何一个层次出发,都需要一套产业促进法与风险治理法协同的组合拳。

三、人工智能立法的内容要素

在明确人工智能立法的规范类型后,我们还需要明确立法的具体内容要素,即人工智能立法究竟涉及哪些主体、客体以及各方的权责关系如何。

(一)主体层面

人工智能立法首先要明确规制的主体范畴。笔者认为,主要包括如下几类。

第一,人工智能科技活动的参与者。凡是人工智能科技活动的参与者都应当是人工智能立法需要规制的主体,涵盖人工智能科技的研发、生产、销售、使用的全部流程。例如,欧盟《人工智能伦理准则》开篇就明确指出,这些指南适用于所有设计、开发、部署、实施、使用或受人工智能影响的人工智能利益相关者,包括但不限于公司、组织、研究人员、公共服务机构、政府机构、民间社会组织、个人、工人和消费者。一方面,人工智能立法是全过程的立法,而不仅仅包括人工智能的利用主体,还特别指向人工智能的研发设计者,这有助于从源头治理人工智能。对此,《人工智能法(示范法)1.0》(专家建议稿)第四章也特别提到了人工智能研发者的义务。另一方面,人工智能立法是全类型的立法,涵盖现行全部的法律主体类型,既包括法人、非法人组织以及自然人,也包括国家和政府机构。其中,国家和政府机构既是人工智能立法的主导者、执行者,同时也是人工智能技术的研发设计者、应用者,他们广泛利用人工智能进行社会治理,掌握着海量的数据和先进的算法,故也应受到法律的调整。例如,《个人信息保护法》《数据安全法》以及《民法典》都明确了国家机关、承担行政职能的法定机构对于履职过程中知悉的自然人的个人信息负有保密义务,以及国家机关负有开放政务数据的职责。

第二,网络平台。网络平台是数字经济时代的新业态组织,兼具组织与市场的特征,与纯粹的法人不同,是介于市场和企业之间的第三种经济形态,或者说平台是介于市场与企业之间的网络组织方式。无论作为商业模式、经济形态还是组织架构,平台的本质特征是为用户之间的交易提供连接、匹配服务。从现行法律规则来看,平台并不属于法律明确规定的主体类型,与传统法人或者非法人组织相去甚远,但它切切实实地成为了人工智能时代数字活动的集散地、主导者。特别是在海量数据和算法技术的加持下,平台的权力得到了极大的强化,平台利用算法可以实现大规模的自动化处理,影响着生态圈内的每个人,如平台算法对外卖骑手锁定操控的问题就受到广泛关注。对此,欧盟《数字服务法案》中“大型在线平台”(very large online platforms)以及《数字市场法案》中的“守门人”(gatekeepers)规则,都直接指向平台。与此同时,我国《电子商务法》《国务院办公厅关于促进平台经济规范健康发展的指导意见》《数据安全法》《个人信息保护法》以及《互联网信息服务算法推荐管理规定》都贯彻了平台治理的精神,强化了平台处理数据和利用算法的义务。2021年10月,国家市场监督管理总局更是发布了《互联网平台分类分级指南(征求意见稿)》以及《互联网平台落实主体责任指南(征求意见稿)》,平台治理进入精细化阶段。

第三,人工智能。法律调整的对象应当是法律主体,当前人工智能并不具有法律人格,不属于人工智能立法规制的主体。然而,随着机器智能在围棋、图像识别、语音识别等许多方面不断超越人类,有关人工智能能否获得法律人格的讨论变得越来越火热。而GPT-4等生成式人工智能的崛起,更是让人们看到了强人工智能的可能。有学者认为,智能机器人摆脱人类的纯粹工具地位而获取主体身份,将是一个必然的趋势。虽然当前赋予人工智能法律人格似乎还缺乏正当性与必要性,人工智能自身还无法承载法。但从发展的眼光来看,这一问题仍然充满开放性。2020年7月,欧洲议会法律事务委员会研究报告《人工智能与民事责任》就指出,出于简化民事责任承担、管理监督人工智能、将人工智能与相关主体资产剥离以及税收等方面考虑,不排除赋予人工智能法律人格的可能。而从预防和治理人工智能风险、造福社会的角度出发,责任与主体之间的关系也应该进一步松绑甚至脱钩,凡是风险的制造者都应成为责任的承担者。不管是机器人,或者是某种意义上的非完全的人,是否有意图或者决断,只要发生了某些负面后果,其就要承担一定的责任。这种不考虑人格的有无、只关注损害分配的思维,符合人工智能时代风险治理的理念。基于此,人工智能立法规制的主体范围也不应武断地将人工智能本身排除在外。

(二)客体层面

在明确主体范畴后,我们还需要厘清人工智能立法规制的客体。笔者认为,起码包括如下几类。

第一,人工智能科技。人工智能科技是人工智能立法需要规制的首要客体,如自动驾驶汽车的安全性能、人脸识别系统的准确率、智能投顾系统预防网络攻击的能力等。即使未来人工智能获得法律人格,也不妨碍其客体属性,因为其只能是相对主体,就像公司作为法律主体的同时也是法律客体一样。对于人工智能科技的治理是实现源头治理的关键。欧盟《人工智能伦理准则》倡导的七条伦理准则中的第二条“技术坚固性和安全性”,就是针对人工智能科技本身提出的要求,即人工智能科技产品或者服务必须具备抵御攻击和安全的能力、准确性、可靠性和可重复性。欧盟《人工智能法》也在多个条文专门规定了人工智能科技产品本身的质量管理问题。人工智能科技本身的治理也是展开后续治理的基础,特别是对于高风险属性的人工智能应用。以自动驾驶汽车为例,其相关立法首先应当聚焦在“车”上,贯穿于道路测试、示范运营、产品准入、登记上路、许可运营等各个阶段。例如,《智能网联汽车道路测试与示范应用管理规范(试行)》第8条明确申请道路测试的自动驾驶汽车除具备一般车辆的安全性能外,还需具备人工驾驶与自动驾驶随意切换、记录测试数据两项功能。2022年11月,工信部发布《关于开展智能网联汽车准入和上路通行试点工作的通知(征求意见稿)》,试图通过试点方式来确保自动驾驶汽车的各项安全能力。

第二,人工智能科技活动。再好的人工智能产品或者服务,也可能因为主体的滥用行为而产生风险。故此,法律需要对人工智能科技活动进行治理。无论是人工智能科技的研发设计阶段,还是生产销售阶段,抑或应用消费阶段,都属于人工智能立法规制的对象。考虑到人工智能巨大的影响力,对于设计研发活动的立法尤为重要。欧盟《人工智能白皮书》就指出,“人工智能引发的风险可能源于人工智能系统设计过程中就存在的缺陷,或者来源于在不纠正可能存在的偏见的前提下使用数据。”我国《新一代人工智能发展规划》也特别强调,研发设计人员要遵守相应的法律道德规则。对此,法律应当鼓励研发设计人员开发设计安全可靠、尊重人类自主性、尊重隐私等负责任的人工智能科技,同时禁止研发人工智能大规模杀伤性武器以及充满歧视、暴力、色情的人工智能科技。与此同时,人工智能的供应活动、使用活动也是重点规制的对象。例如,《上海市促进人工智能产业发展条例》第67条明确列举了六项禁止从事的人工智能研发和应用活动。

第三,人工智能三要素。除上述两类客体外,人工智能立法的客体还特别指向人工智能三要素本身。例如,数据是人工智能的基础,已经成为人工智能时代的生产资料,数据喂养的数量和质量直接决定人工智能产业的发展水平,因此人工智能立法的客体要特别指向数据以及数据活动。无论是《数据安全法》《个人信息保护法》建立的数据分级分类管理制度以及个人信息分类保护制度,还是数据权属、数据交易、数据竞争等数据规则的塑造,都需要围绕数据本身展开。再比如,算法也是人工智能立法的重要客体。对此,《互联网信息服务算法推荐管理规定》在重点针对应用算法推荐技术提供算法服务进行治理的同时,还特别强调针对算法本身进行规制:一是主管部门建立算法分级分类安全管理制度,二是对于具有舆论属性或者社会动员能力的算法需要备案与开展安全评估,三是算法推荐服务提供者应当定期评估算法机制机理、模型、数据与应用结果等。这些治理措施的落实都需要依赖算法本身治理。此外,算力也是人工智能立法的重要客体,《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》就非常强调算力的规制。

(三)权责关系

人工智能对于现有权责关系的影响是全方位的,既包括法律价值的重塑,也包括具体规则的影响。

1.法律价值层面

人工智能不仅对现有具体法律规则带来挑战,也会对当前的法律价值产生冲击,诸如人类自主、技术安全、数据算法正义、隐私尊严等将成为这个时代人们广泛认可的新价值取向。为适应人工智能时代的科技变革,各国在积极倡导人工智能治理的伦理原则,以便丰富更新现有的法律价值。这同样可以从人工智能立法的三层次来观察。

其一,智能科技层面。机器智能的出现势必重塑人类智能时代的法律价值观。一是人机关系。人类与机器之间的秩序需要明确的法律价值指引,类似艾西莫夫“机器人三法则”的内容将转化为基本的法律价值,以构建适应人机协作共存社会的信任机制,解决机器智能带来的安全问题。二是人人关系。历史证明,新技术可以消除基于旧技术的不平等,但也可能产生新的更大的不平等。同样,人工智能技术的广泛应用会引发更大范围的公平与正义问题,如何解决人工智能发展带来的“技术鸿沟”问题也同样急迫。为此,智能科技层面的立法主要从人类整体福祉出发,包括坚持人类的自主性、保障技术的安全性、倡导技术发展的正义性,让人工智能技术尽可能造福于整个人类社会。

其二,智能要素层面。算力、数据以及算法对于现有法律价值产生冲击,引发了新的价值诉求。以正义问题为例,一方面,数据成为新的生产要素,这会引发分配正义的思考,少数企业和平台垄断了数据资源,在整个市场的运行中处于垄断地位,从而让作为个体的消费者和其他竞争对象难以得到正义的对待;另一方面,算法也成为平台行使权力的新工具,通过算法这一外衣既享受了权力的实质红利,又规避了权力行使所需要承受的外部成本。对此,保护隐私、数据平权、算法透明等成为智能要素立法需要坚守的新法律价值取向。

其三,智能应用层面。不同的应用场景所重视的价值不尽相同,需针对具体应用场景更新具体的法律价值。2017年6月,德国发布《自动化和互联化车辆交通伦理准则》,提出“生命至上”“禁止提前编程应对电车困境”等20条伦理原则,重塑了自动驾驶汽车出行领域的法律价值观。这些法律价值观并不当然适用于人脸识别、医疗人工智能、生成式人工智能等应用场景,如电车困境问题就具有专属性,故需要挖掘不同人工智能应用场景所关注的不同法律价值。

2.具体规则层面

其一,权利义务责任关系的重塑。一方面,人工智能对于既有权利义务责任关系产生挑战。如自动驾驶汽车引发的交通事故,就需要更新汽车生产商、自动驾驶系统供应商、高精地图供应商、所有人等主体的责任承担规则。另一方面,人工智能也催生了新的权利义务以及责任需求。例如,面对人工智能引发的隐私和个人信息保护危机,个体的权利武器库不断得到充实,被遗忘权、携带权等数据类权利不断出现,算法解释权、免受自动化决策约束权等算法类权利也逐渐兴起。与此相对的是,利用数据和算法的主体负担着对应的义务与责任。

其二,权力格局的重塑。个体权利爆炸的同时,国家和政府机构的权力也在增长,人工智能技术成为国家治理现代化的最佳工具,公权力机构掌握着海量的数据,在算法的加持下,“监控国家”正在成为现实。与此同时,权力的分散化、扁平化趋势明显。例如,平台企业的私权力急剧扩张,成为强有力的“利维坦”,在平台之内充当公权力机构的角色,制定着平台内交易规则、纠纷解决规则,实质上行使着“准立法权、执法权、司法权”。这种强大的私权力,在公权力的驯化下成为国家治理的重要部分。权力应当以权利为目的,权力的扩张意味着权力主体必须负担更多的职责。为此,针对政府机构的算法问责、政府数据公开成为监督公权力的一种新趋势,而平台企业也应当保护个体权利、维护市场公平竞争秩序,接受公权力和社会监督。这些都是人工智能立法需要具体回应的内容。

四、人工智能立法的思维策略

人工智能立法除明确基本层次、规范类型与内容要素外,还需要确定立法的思维策略,以便指导具体的人工智能立法活动的开展。

(一)立法思维

立法活动的开展需要一套涵盖主体、工具以及流程的思维指引。对于人工智能立法而言,应当确立协同立法、多元立法以及敏捷立法的基本思维,以确保立法活动的灵活有效。

1.协同治理——人

人工智能是一项影响面广的颠覆性技术,对社会经济生活产生全方位的冲击,影响着系统中所有组织与个体。为了最大限度地发挥人工智能的优势,同时减少风险,尽量避免意外后果,我们必须继续在政府、企业、非营利组织和公民社会代表、学术研究人员和所有其他利害相关的个人和组织之间举行公开讨论。这种多方协同治理的思维是应对人工智能挑战的基本思维,可以有效地黏合各方力量实现社会共治。对此,《人工智能法(示范法)1.0》(专家建议稿)第13条就提到了“促进多元主体协同共治”。

其一,国内层面。人工智能应用渗透到社会的各个角落,应当聚合全社会各阶层力量,形成政府监管、企业履责、行业自律、社会监督的协同治理局面。一方面,公权力机构应当发挥引领作用,加强与私营企业的合作。美国《2019年国家人工智能研发战略规划》就特别在2016年版本的基础上增加了一项新战略“扩大公私合作伙伴关系”,明确指出“人工智能研发的进步将受益于所有这些类型的公共私营合作伙伴关系。”对此,人工智能立法需要强调国家和政府机构的主导作用,既是为了解决人工智能技术研发的高投入、高风险、长周期、低回报等问题,同时也是为了保证人工智能技术安全可控,符合国家安全与国家治理的价值取向。另一方面,除政府机构、私营企业之外,社会第三方力量也同样重要。例如,作为第三方的非营利组织Propublica就首先发现了量刑算法的系统性歧视问题。当然,社会监督力量的运行需要配套的保障机制,如商业平台和政府机构内部的“吹哨人”可以揭发权力滥用,但也需要匹配保护“吹哨人”的规则保护伞。与此同时,社会第三方力量也是推动人工智能产业发展的重要角色。对此,《深圳经济特区人工智能产业促进条例》就明确鼓励社会资本参与人工智能产业发展,支持社会力量开展人工智能奖励活动,建立和完善社会监督的人工智能治理机制。

其二,国际层面。机器智能冲击的是整个人类社会,构建人工智能立法的全球共识迫在眉睫。2016年美国《为人工智能未来做好准备》提出了23项措施,其中第21条提到“美国政府应当加深与关键国际利益相关者的合作,包括外国政府、国际组织、业界、学术界等,以交流人工智能研发方面的信息并促进合作”。欧盟《人工智能白皮书》也指出,“欧洲完全有能力发挥其全球领导作用,围绕共同价值观建立联盟并促进人工智能应用合乎道德。欧盟将以符合欧盟规则和价值观的方式,继续与志同道合的国家以及人工智能领域的全球参与者展开合作。”与此同时,《人工智能法(示范法)1.0》(专家建议稿)第11条也高度重视国际合作的原则,以便推广中国经验与中国方案。对此,重点可以围绕三个方面展开:一是容易与国际社会达成共识的话题,如人工智能伦理原则、准则以及规范的对话,这是各国普遍关注且可能达成最低共识的领域。例如,我国《新一代人工智能伦理规范》与欧盟《人工智能伦理准则》存在诸多共识,可以作为人工智能国际立法的基础。二是对于国家安全影响重大的话题,如数据治理问题,直接关系到国家主权与安全,各国比较急迫想要达成一些共识,或者了解中国的基本立场。对此,我国2020年发布的《全球数据安全倡议》就及时向世界传达了中国数据治理之道。三是关于人工智能技术标准方面的合作。例如,2019年,联合国世界车辆法规协调论坛通过了中国、欧盟、日本和美国共同提出的《自动驾驶汽车框架文件》,就自动驾驶技术达成广泛共识,提出九项具体原则。

2.多元治理——工具

早在1999年,美国学者莱斯格教授就提出,网络空间的规制起码包括法律、准则、市场以及架构四种手段,如何优化这些要素的组合是有效规制的关键。法律与科技之间存在天然鸿沟,法律的保守性、刚性等特征难以跟上日新月异的科技发展的脚步。对于人工智能的治理,切忌“一刀切”的生硬强制手段,更适合采取多视角的、综合性的、社群指向的“软法”方式。为此,人工智能立法要重视伦理、技术等治理工具的作用。

第一,伦理治理的法治化。人工智能的技术逻辑是在不断模拟人的智能,但更为深层的社会逻辑则是要在广泛的社会经济关系中取代人,即对创造秩序的颠覆。这使得人工智能天然需要伦理治理。对此,《人工智能法(示范法)1.0》(专家建议稿)第40条明确规定“人工智能研发者、提供者应当按照有关规定开展科技伦理审查”。一方面,在法律规则不明确或者不适宜出面时,伦理规范可以发挥软性约束的引导作用,确保人工智能技术发展符合人类伦理价值。据不完全统计,2016年以来,国际组织、政府机构、民间组织、学术团体等各类主体发布的有关人工智能伦理规范已经超过了40项。另一方面,在围绕人工智能的伦理治理达成一些共识的基础上,需要通过立法的方式上升为法律规范,进而更好地贯彻伦理治理。故此,人工智能立法需要考虑伦理治理的问题,起码可以包括三个方面:首先,建立完善的伦理治理机制,包括组建人工智能伦理委员会、制定人工智能伦理制度规范、加强人工智能伦理教育与研究等。例如,《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》都明确规定设立人工智能伦理委员会,组织制定伦理规范指南。其次,划定人工智能活动的伦理红线,倡导人工智能伦理向善。对于一些已经具有高度共识、形成常态化行为准则或者涉及重大伦理挑战的情形,法律可以直接设定具体、细致的行为规则;而对于新兴领域、中间地带,法律需要重视通过确立原则来引领科技伦理治理。最后,强化伦理治理的责任保障,确保人工智能相关主体履行伦理职责。例如,通过落实伦理设计等方式,在技术研发过程中真正体现伦理原则。

第二,技术治理的法治化。人工智能科技带来了新的挑战,也带来了新的解决方案,技术治理正在成为一种潮流,是数字法治领域自觉适用的一种范式。例如,面对人工智能引发的隐私和个人信息保护挑战,隐私设计理论提出通过装置、系统、技术或服务的物理设计、技术设定、代码架构的适用来保护个人信息。与此同时,以联邦学习、差分隐私、安全多方计算为代表的隐私安全技术,尝试在保证隐私和数据安全的前提下实现数据的共享和利用,成为近年来数据治理领域最为重要的方向之一。再比如,面对深度合成技术带来的以假乱真的危害,鉴伪技术与溯源技术的应用就十分重要,如何鉴伪并利用时间戳、数字水印、数字签名和区块链技术来追溯图片或音视频内容的真实性成为工作重点。基于此,《人工智能法(示范法)1.0》(专家建议稿)第58条也特别提到“鼓励在人工智能领域应用监管科技、合规科技”。需要注意的是,技术治理不能脱离法律治理,技术语言要转化为法律语言,技术规范要转化为法律规范,通过法律赋予技术治理强制性与价值性,通过技术来落实法律治理的要求与目标。故此,人工智能立法需要充分考虑技术治理的角色,将技术治理灵活适度地法治化。

3.敏捷治理——流程

人工智能立法的目的并不是消除风险,而是主动管理风险,将风险控制在可控范围,同时依据风险程度采取相应的措施,保持治理的灵活性。

其一,预防原则。人工智能立法必须注重对研发、设计活动以及研发者、设计者的规制,这样有助于从源头构建一套合乎道德伦理和公共利益的科技治理体系。例如,对于人工智能的安全问题,我们不能光强调事后追责和救济,还应从人工智能产品研发设计的开始就考虑安全问题,以最小成本最大限度地预防风险。同样,算法治理、个人信息保护、自动驾驶汽车事故责任规制等都应当贯彻预防治理的思维,从源头尽可能减少人工智能技术引发的风险。

其二,比例原则。比例原则强调治理措施要与风险匹配,确保精准治理。2019年,欧盟人工智能高级专家小组发布的《可信赖人工智能政策和投资建议》提到“采取基于风险的监管方法”,强调监管干预的特征、强度和时机取决于人工智能系统产生的风险类型。随后,欧盟《人工智能法》也贯彻了基于风险的比例理念,将人工智能予以风险分级,对于不可接受级别风险的人工智能明确予以禁止,对于高风险级别的人工智能配备了全方位的监管规则,而对于有限风险级别的人工智能则主要从透明度方面入手规制。这种基于风险的治理方法可以很好地平衡安全和发展两种价值,无论是对于智能科技、智能要素、智能应用的治理都有重要意义。我国在人工智能立法中也在践行比例原则。无论是《数据安全法》确立的数据分类分级保护制度,还是《互联网信息服务算法推荐管理规定》建立的算法分级分类安全管理制度,抑或《深圳经济特区人工智能产业促进条例》规定的人工智能应用分级分类监管办法,都是在强调措施与风险的精准匹配。此外,风险分级还应当具有敏捷性与适应性,能够通过“数字沙盒”“安全港”“试点”等方式推动人工智能的实验与应用落地。

其三,管理系统。风险存在于人工智能科技活动的全生命周期,法律应该努力建立一套完善的风险管理系统,以便主动预防缓解风险。欧盟《人工智能法》第9条专门针对高风险人工智能系统要求建立风险管理系统。与此同时,《数据安全法》《个人信息保护法》《互联网信息服务算法推荐管理规定》《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》等法律法规都规定了相应的风险管理制度。《人工智能法(示范法)1.0》(专家建议稿)第38条也特别提到“建立健全和实施全生命周期风险管理制度”。风险管理制度的核心在风险识别、分析与应对。首先,风险识别阶段,即识别人工智能风险的类型、频率、可能、程度、广度等,以全面了解风险的基本面貌。这种风险识别既可能是风险事件引发的被动识别,更强调责任主体、监管主体定期排查的主动识别。同时,针对人工智能技术自主性与不可预测性的技术特点,可以引入已知安全、未知安全、已知危险与未知危险的分析框架,重点关注已知危险与未知危险的识别。其次,风险分析阶段,即对于已经识别出的风险作进一步的分析,重点包括两块内容:一是分析风险发生的原因、路径、机制、条件等,了解风险的发生机制,主要针对已知危险;二是分析风险可能引发的直接影响与间接影响、短期影响与长期影响、定向影响与非定向影响等,洞悉风险的作用机制,涵盖已知风险与未知风险。在此基础上,对风险进行更为精准的等级与类型判定。最后,风险应对阶段,即在风险识别与分析的基础上,采取针对性的应对措施。对于紧急事件,启动紧急应对预案;对于常规风险,则采取对应的技术、组织措施予以保障。风险的应对应当考虑主体的实力,中小企业与大型互联网公司应当不同对待。

(二)立法策略

1.制定人工智能立法路线图

立法是人工智能治理最重要的部分。如何有步骤、有规划地开展人工智能立法至关重要。对此,有必要制定一份人工智能立法路线图,以指导今后一段时间内新法制定、旧法更新工作。2020年12月,韩国科学和信息通信技术部与国家事务协调办公室共同发布了《人工智能立法路线图》,制定了包括11个领域的30项立法任务,旨在奠定人工智能时代的法律基础。同时,韩国还专门成立“人工智能立法工作组”,不断修订和完善立法路线图,以推动人工智能产业的健康发展。我国按照2017年《新一代人工智能发展规划》的部署,2021年至2025年是人工智能治理的关键阶段,需“初步建立人工智能法律法规、伦理规范和政策体系”。《法治中国建设规划(2020—2025年)》也明确提出“加强信息技术领域立法,及时跟进研究数字经济、互联网金融、人工智能、大数据、云计算等相关法律制度,抓紧补齐短板”。可以预见的是,人工智能立法将成为未来一段时期的重点,制定一份人工智能立法路线图非常有必要,可以为立法工作提供指导,避免头痛医头、脚痛医脚的无序立法。

2.产业促进法与风险治理法的协调

当前人工智能展现了一定的智能优势,但仍属于弱人工智能阶段,故人工智能立法应当以鼓励技术创新和经济发展为主旋律,侧重于扫除科技市场障碍,出台产业政策,推动人工智能技术创新和应用,加速技术向经济的赋能和转化。为此,市场法、政策法应当成为人工智能立法的优先级规范类型。事实上,近年来美国、欧盟、日本等发布的法律政策,大部分属于这一范畴,如美国《2019年国家人工智能研发战略规划》《美国人工智能倡议》《在联邦政府推广使用可信人工智能》,欧盟《人工智能白皮书》《欧洲数据战略》,日本《利用人工智能和数据的合同指引》等。国内层面,《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》是一个很好的例子,可以拓展至人工智能立法的三个层次,时机成熟可以上升为中央立法。与此同时,考虑到人工智能已经引发一些风险,如隐私和个人信息保护、算法操控、法律责任等问题,故需要制定针对性的风险治理法。对此,我国已经出台《个人信息保护法》及《互联网信息服务算法推荐管理规定》等规定,还需要细化相关的配套规则。但即使是风险治理法,也应当兼顾产业发展的需求,过于严格的风险治理规则会让人工智能发展失去先机。例如,近期公布的《生成式人工智能服务管理暂行办法》相较于征求意见稿,在多个条文中明确监管安全与发展,鼓励生成式人工智能在各行业、各领域的创新应用以及算法、框架、芯片及配套软件平台等基础技术的自主创新,同时删除了生成内容必须真实准确等不合理义务,为产业发展留出了空间。再比如,《人工智能法(示范法)1.0》(专家建议稿)也通过合规不起诉、监管沙盒、创新监管等鼓励人工智能产业发展。

3.智能科技、智能要素、智能应用立法的选择

有学者认为,对于人工智能的治理需要制定一个专门的法律,叫《人工智能科技法》,即从智能科技层面进行立法。有学者则认为,人工智能的规制需要场景化,不存在一般化的规则,强调智能应用的立法。笔者认为,人工智能不同层次的立法紧迫性不一样。考虑到当前机器智能整体上并不发达,优先从智能要素、智能应用层面进行立法,时机成熟后再制定一部统一的《人工智能法》。一方面,数据、算法以及算力是人工智能的基础,智能要素的立法应当处于优先级别,亟需配套相应的市场法、政策法和风险治理法。以数据治理为例,在市场法层面,需要明确数据产权、数据交易以及数据竞争等问题,故需要制定《数据财产保护法》《数据交易法》,同时更新《反不正当竞争法》《反垄断法》等竞争法规则;在政策法层面,国家和政府机构需要明确数据战略地位、开放数据资源、加大数据投资、人才培养,故需要制定《国家数据战略与行动计划》《政府数据开放法》等;在风险治理法层面,需要解决数据泄露、数据滥用等问题,故需要制定《数据安全法》《个人信息保护法》等。另一方面,智能应用的立法同样紧迫,关系到抢占关键人工智能产业高地的国家战略。以自动驾驶汽车为例,当前处于道路测试向商业落地的关键阶段,亟需从车、人、路、云四个角度扫除自动驾驶汽车商业化落地的障碍,包括道路测试规范、道路交通安全法、准入管理指南、汽车数据安全管理等。退一步说,即便要出台一部《人工智能法》,也应当充分认识到《人工智能法》并不能包治百病,仍然需要推进智能要素、智能应用层面的立法,形成有层面、有侧重的人工智能体系法。

4.中央立法与地方立法的安排

人工智能立法应当坚持中央引领、地方协同的立法模式,以便全国一盘棋,避免各自为政。一方面,从人工智能立法三层次来看,智能科技以及智能要素的立法应当坚持以中央立法为主,地方层面可以在智能应用方面寻求试点;另一方面,从人工智能立法的规范类型来看,人工智能市场法、风险治理法应当坚持中央立法为主,以便形成有预期的市场规则与行为规则。地方政府可以在人工智能政策法方面发挥能动性,如《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》就是有益的尝试。当然,中央与地方的立法也应当保持灵活性。以数据治理为例,从中央层面构建个人信息保护、数据产权、数据交易、数据竞争等规则是最为有效的,但由于数据治理尚缺乏足够共识,有选择的地方试点可以为中央立法提供先行先试的经验。对此,《深圳经济特区数据条例》的出台,可以为中央层面制定《数据财产保护法》《数据交易法》《政府数据开放法》等提供宝贵的经验。但人工智能立法的地方性试点不应要求四处开花、多多益善,避免未来中央统一立法遭遇过多来自地方层面的制度阻力。

五、结语

从全球范围来看,随着欧盟《人工智能法》的不断推进,以及生成式人工智能的新一轮爆发,人工智能治理已经迈入大规模集中立法的新阶段。人工智能立法需要区分智能科技、智能要素、智能应用三个层次,不同层次的风险发生、表征与治理机制不同。无论是欧盟的《人工智能法》,抑或我国《人工智能法(示范法)1.0》(专家建议稿),都是试图从智能科技层面对人工智能进行立法,但其并不能替代智能要素、智能应用层面的立法,无法一劳永逸地解决人工智能引发的所有问题。例如,针对人工智能的侵权责任问题,《人工智能法(示范法)1.0》(专家建议稿)第66条规定,除非研发者和提供者能证明自己没有过错,否则需要承担赔偿责任,确立了过错推定原则。然而,这种从智能科技层面确立的责任规则并不能当然地适用于智能要素与智能应用。以智能应用为例,高风险人工智能与低风险人工智能、替代型人工智能与辅助型人工智能的侵权责任区别甚大,难以适用统一的责任规则。例如,自动驾驶汽车造成交通事故,作为研发者、提供者承担的是无过错的产品责任,而非过错推定责任。

与此同时,人工智能立法还需要平衡产业促进法与风险治理法,产业促进法又具体包括市场法与政策法两组子类型,既要克服科技不足也要警惕科技过度,并明确作为立法内容的主体、客体以及权责关系。从这个角度来看,《人工智能法(示范法)1.0》(专家建议稿)同时涵盖了产业促进法与风险治理法,但前者主要集中于政策法,并没有涵盖市场法的内容,而后者也主要是通过明确生产者、研发者的义务以及确立综合治理机制来实现,并没有解决人工智能带来人机、人人关系的挑战问题,更没有涉及智能要素、智能应用层面的风险问题。此外,人工智能立法应当确立协同治理、多元治理以及敏捷治理的基本思维,同时有必要制定一份清晰的人工智能立法路线图,以便明确未来人工智能立法的整体方向与具体步骤。这意味着即使我们制定了一部《人工智能法》,未来仍然需要从智能要素、智能应用层面出台针对性的法律。

(本文原载《数字法治》2023年第6期)

图片

专题统筹:秦前松