中国实践
数字法治|陈亮、张翔:人工智能立法体系化的理论证成与路径选择
2024-11-19 16:34  点击:13623

作者:陈亮,西南政法大学人工智能法学院教授、科学技术法学研究院研究员,法学博士。张翔,西南政法大学科学技术法学研究院研究人员、人工智能法学院博士研究生。

当前,我国正处于从网络时代迈向智能时代的关键转型期,以自动驾驶、AIGC、智能推荐等为代表的颠覆性人工智能技术,在为数字社会变革注入强劲动力的同时,也为法律治理算法黑箱、消除数字鸿沟、保障人工智能稳定运行等新型社会问题带来巨大挑战,这些社会问题呈现出交叉性、整合性和动态性特征,难以为传统法律部门所涵盖。根源在于,人工智能的复杂性不仅表现为技术本身的复杂性,而且表现为社会和组织上的复杂性,正在突破传统部门法律关系所立足的线性、均衡、简单还原的社会关系构造。虽然人工智能领域已经制定了数量可观的政策、法规、规章和规范性文件来弥补部门法“各自为政”之缺陷,但这些规范整体上零散无序,相当一部分条款依旧脱胎于部门法的固有理念和调整思路,没有在法理上对人工智能的本质和运行机理正本清源,规范之间的体系性也极为欠缺,因而这种“头疼医头、脚疼医脚”的立法模式难以充分应对人工智能引发的一系列复杂性社会问题。“系统思维作为一种解决问题的整体分析方法,将复杂系统视为相互联系、互为依存的状态,其内在行为可能会产生连锁反应;只有将系统行为作为整体来理解而不是专注于孤立的组件,才能准确识别潜在的模式和关系,找到有效决策方案。”因此,转变立法思维、坚持系统观念,构筑体系化的人工智能立法方能妥善应对新挑战。

早在2017年,《国务院关于印发新一代人工智能发展规划的通知》(以下简称《新一代人工智能规划》)就提出人工智能立法“三步走”战略目标,其核心要义是建构完善的“人工智能法律体系”;国务院2023年度和2024年度“立法工作计划”均将“人工智能法草案”列入预备提请全国人大常委会审议草案的范围,虽然“人工智能法”未能进入正式立法计划,但立法者已然意识到人工智能领域体系化立法的必要性。学界对人工智能立法问题也有所关注,主要集中于“人工智能对传统部门法的挑战与立法回应”“生成式人工智能、自动驾驶、虚拟数字人、人脸识别等具体场景或某种新技术引发的法律风险及立法应对”“域外人工智能立法评介”“人工智能赋能(辅助)立法”等主题,从原理层面专门探讨我国人工智能立法体系化问题的研究较为少见。鉴于此,本文首先聚焦当前人工智能立法体系性之不足,解决立法体系化的前提问题,并据此框定人工智能立法范畴;其次,明确立法体系化预期实现的目标,在应然与实然之间提炼法律体系化的一般原理;最后,嵌入人工智能立法的特定机理,从模式、价值、原则、脉络等维度设计人工智能立法体系化的可能路径。

一、人工智能立法体系性不足的表现

一般认为,数据、算力和算法是人工智能发展的“三驾马车”,其中大数据是人工智能发展的基础,云计算是人工智能发展的平台,而深度学习是人工智能发展的手段,三者之间的联系极为紧密。当前,我国涉人工智能法律规范总体上呈现出“碎片化”特点,具体表现为“概念不清”“定性不准”“理念不彰”“范畴不明”“脉络不畅”五大问题。

(一)人工智能的概念含混不清

在我国涉人工智能法律规范文本中,鲜见针对人工智能本质特征和特有属性的明确定义,大多数文件只是在涉及人工智能的语句中零散地给出特征描述词或者类型归属词,难以准确阐明何谓人工智能。即便《深圳经济特区人工智能产业促进条例》(以下简称《深圳人工智能条例》)、《上海市促进人工智能产业发展条例》(以下简称《上海人工智能条例》)和GB/T 41867-2022《信息技术 人工智能术语》(以下简称《人工智能术语国标》)制定了专门界定人工智能意涵的定义性条款,但三部文件的属概念分别侧重“行为论”“本体论”“知识论”,种差特征在“人工智能的方法”“人工智能的结构”“自主性标准”等方面存在分歧,并且对“是否需要列举人工智能的外延/类型”也没有达成共识。诚然,形成合理的法律概念是科学构筑法律体系、清晰表达法律内容、准确适用法律规范的前提条件,当前规范文本中含混不清、位阶不高、确定性不足的人工智能概念致使不同规范的适用范围存在交叉重叠,极易造成重复性立法、矛盾性立法以及立法漏洞等问题,进而减损法律适用的稳定性;特别是在人工智能集成应用、高速迭代、场景泛在的发展状态下,共识性定义缺失将会导致国家权力对产业发展的干预范围和控制程度模糊化,诱发科技创新的“寒蝉效应”。

(二)人工智能立法的定性不准

在学理上,法律规范的性质关乎其在立法谱系中如何定位,不同类型的部门法之间不仅法律关系的内容不同,而且植根于部门法的立法精神和价值导向更是不同。在传统部门法视域下,涉人工智能法律规范的性质界定尚不清晰。譬如,“使用人脸识别技术处理个人信息”是典型的涉人工智能法律行为,而司法解释将其纳入私法意义上“信息处理者侵害自然人个人信息权益”的民事法律关系。又如,“利用个人信息进行自动化决策”也是算法行为的重要类型,规制该行为的条款主要存在于《中华人民共和国个人信息保护法》(以下简称《个保法》)中,有学者认为该法是配套实施《中华人民共和国民法典》(以下简称《民法典》)的重要法律,属于公法和私法的混合,但《个保法》的内容大多是关于民事权利和义务的规定,因而其与《民法典》之间是“特别法与基础法”“特别法与普通法”或者“单行法与基本法”的关系。这就意味着调整“利用个人信息进行自动化决策”行为的条款似乎更多地表征着私法属性的民事法律关系。除了将人工智能规范定性为民事规范,有学者在描述人工智能立法特点时,将《中华人民共和国网络安全法》(以下简称《网安法》)、《中华人民共和国刑法》对个人信息的保护、《中华人民共和国反垄断法》对“利用数据和算法实施垄断”的规制以及智能网联汽车、人工智能医疗、互联网信息服务算法、深度合成算法等领域的行政管理规范,都归为人工智能立法,而这些规范表现出显著的“公法”属性。此外,还有学者对人工智能立法的定性超越了公法和私法的二元区分,认为其是“科技法”规范、“领域法”规范或者“核心是风险控制与问责的风险立法”规范。可见,法律实践和学术研究对人工智能立法属性的厘定分歧较大,立法性质界定不准将会影响立法理念在法律规范中的准确适用。

(三)人工智能立法的理念不彰

当前,涉人工智能法律规范缺乏一以贯之的基本理念来统合各类价值。一是作为立法逻辑起点的人工智能法律概念中没有嵌入价值理念,但“法律概念也承担着法的调控任务,受制于目的论”,人工智能法律概念的价值倾向可以经由解释学通道直接影响立法目的实现程度。譬如:《深圳人工智能条例》在界定人工智能时“输出端”和“目标端”双重缺失;《上海人工智能条例》中“最佳结果”也指代不明;即便《人工智能术语国标》设置了“针对目标产生输出”的单向线性结构,但目标对输出的“反馈/修正”等逆向性特征并未体现。二是不同法律价值之间缺乏消解冲突、平衡利益的决断依据。同样是针对“高风险”的人工智能,《上海人工智能条例》严把准入关,设置了“清单式管理”和“合规审查”两道门槛,并且明确规定合规审查的实质标准是“必要、正当、可控”;而《深圳人工智能条例》只是在程序上要求“事前评估”和“风险预警”,没有从实体上直接划定人工智能类型“禁区”,相对而言,市场准入空间较大。究其原因,一方面,人工智能治理要求“包容共享”“开放协作”“共担责任”,相对统一的准入门槛有利于防止市场碎片化、促进跨地区资源共享,并在地区协作治理时降低责任分配的协作成本;另一方面,人工智能治理也要求“安全可控”“敏捷治理”,预先设定较高准入门槛成为倒逼安全措施升级、能动防范风险的强有力手段。因此,两部条例设置差异化准入标准,不仅仅是考虑到地方资源和发展方向的特殊性,背后反映的深层次问题是不同价值之间难以平衡,只能暂时“妥协”而偏重单一价值,其根源正是当前政策及立法文本中没有确立能够合理融贯各类法律价值的根本理念和有效消解价值冲突的合理方法。

(四)人工智能立法的范畴不明

从“效力位阶”和“客体类型”审视涉人工智能法律规范,其整体上呈现出“非正式法律渊源数量多于正式法律渊源,并且正式法律渊源以部门规章和地方性立法为主导”,以及“涉数据要素的规范数量最多、涉人工智能整体的规范次之、涉算法要素的规范较少、涉算力要素的规范最少”的体量分布格局。从“规范内容”来看,数据立法重在维护数据/信息安全,并激励大数据产业发展、促进公共数据开发利用;针对人工智能整体的立法侧重于促进智能制造业升级,并且重点扶持智能网联汽车行业,而涉及“通用人工智能”和其他应用场景的立法较少;算法领域主要是规制“深度合成服务”和“算法推荐服务”的部门规章,涉及“算力/云计算”的正式法律渊源缺位,即鼓励大模型创新应用和算力基础设施完善的规范基本是“红头文件”类的政策指引,目前该领域尚未出台专门立法。此外,涉人工智能法律规范也存在于名称上不直接冠以“智能或其要素”但某些条款涉及该客体的立法中,譬如规制“推荐类算法”(大数据杀熟)的《中华人民共和国电子商务法》第18条,此类条款往往散见于《网安法》《个保法》《中华人民共和国数据安全法》(以下简称《数安法》)等法律法规,总体而言数量稀少。诚然,观察人工智能的视角不同,涉人工智能法律规范呈现的特征也不同,由此引发的问题是:是否所有涉人工智能法律规范都可以被纳入人工智能立法范畴?具言之,该问题项下主要涉及“人工智能立法范畴是否需要限定在正式法律渊源之内”“针对人工智能单一要素的立法是否属于人工智能立法”,以及“针对人工智能整体的立法或其他法律法规中的涉智能条款,能否不加区分地直接将其归为人工智能立法”等子问题。鉴于此,只有妥善解决人工智能立法范畴问题,才能有的放矢地进行体系化作业。

(五)人工智能立法的脉络不畅

涉人工智能法律规范基本将《个保法》作为其立法根据,但该法难以成为保障人工智能合理利用的一般性法律。无论是在价值理念上侧重于保护个人免受过度数字化控制,抑或利益分配时倾向对信息处理者科以严格义务,该法“强监管、弱激励”的整体导向使下位配套规范形成路径依赖,甚至出现实质上超越上位法精神的潜在违法风险。以立法中“反算法歧视”条款对“输入端”数据的控制方式为例,企业能够利用的数字资源被不断压缩,并且框定数据利用范围的标准也越发模糊。作为上位法的《个保法》第24条没有从“数据库”层面直接干预企业利用个人信息,只是要求“算法透明”或者在“输出端”控制结果;而《互联网信息服务算法推荐管理规定》(以下简称《算法推荐规定》)第21条开始控制“输入端”内容,不当利用消费者偏好、交易习惯等特征数据,成为认定差别待遇的要件;《生成式人工智能服务管理暂行办法》(以下简称《AIGC服务办法》)第4条则更进一步,在“输入端”将控制范围从“利用”延展到“研发”,在“训练数据选择”时便要求采取措施防止出现歧视,并且用户民族、国别、性别等特征数据也被剔除。然而,《中华人民共和国立法法》第91条第2款要求,部门规章的权限仅在于执行法律,不得设定减损私主体权利或者增加其义务的规范,不得增加本部门的权力或者减少本部门的法定职责,据此反观两部规章和《个保法》的关系,二者在体系协调上存在违法风险。一是不当增加信息处理者义务。上位法规制“算法歧视”时主要在“输出端”为个人信息处理者配置义务,无论是要求“提供多元选项或者拒绝选项”,抑或赋予个人“请求说明权或者拒绝权”,都没有在算法设计和数据选择层面为企业增加过多负担。二是不当扩张监管者权力。规制“算法歧视”的关键举措是防止出现“不合理差别待遇”,上位法的控制对象是经算法处理后的“交易价格”这一输出结果,而部门规章的控制对象是“算法利用行为”,即上位法不对算法本身的架构、运行原理进行合理性审查,但部门规章需要审查算法设计及其部署方式。三是整体的权利义务分配机制失衡。监管者自我约束不足,“结果公平公正与否”“差别待遇合理与否”“内容歧视与否”以及“防止歧视的措施实施、有效程度如何”等皆是裁量空间较大的模糊标准;私主体权益保障不足,对抗国家审查权力和个人请求权利的“抗辩性企业权利”在立法中难寻踪迹。因此,从体系脉络看,《个保法》的起始逻辑并非为了发展人工智能而是“人格尊严保护至上”,由其统率的涉人工智能法律规范没有在整体上对数据和算法的内在牵连性予以系统关照,利益配置时也不当地向部分主体过度倾斜。

二、人工智能立法体系化的对象框定

“在法律工作范围内之体系性思考的目标则是,将众多的规范与事实安排进一个秩序里,由此创造一个统一体。”要创造这样一个统一体,必须按照一定的标准,框定应予安排进该统一体的规范与事实的具体范围。

(一)识别体系化对象的三道滤网

1.第一道滤网:明确人工智能的应然法律概念

虽然人工智能立法方兴未艾,但无论是其调整对象确定,抑或制度、规则设计,皆需要借助明确的人工智能法律概念在规范与事实之间搭建沟通桥梁,以期实现法律对社会关系的合理调控。

从既有立法素材中“提取公因式”是形塑法律概念的重要方法,不同规范文本的人工智能概念之间只有达成“最低限度共识”,才能确保领域法语境下人工智能规范集群中各类规范的调整对象不至于过度偏离人工智能的中心语义和社会认知预期。系统梳理域内外涉及人工智能的规范性文本以及中国法学界对人工智能的学理界定,并在“属概念—种差—外延”这一经典认知框架下检视各种定义模式之优劣,进而引入“事物本质”理念和“系统—控制论”原理重构人工智能的法律概念,可以得出如下结论:其一,就属概念而言,应当从人工智能全生命周期厘清各个节点的关系。人工智能并不直接指涉“科学或者学科”,其首先应当是一种信息处理“系统”,而“程序、模型和机器”则是该系统的软硬件组成部分;对智能系统的科学研究或技术研发,称为“人工智能科学”,其范畴包括人工智能“知识、原理、方法和技术”等;科学成果转化、投产后,形成“人工智能产业”、制造出“人工智能产品”;而人工智能作为一种“权益”,受制于特定的政策背景和法理话语,并且具有较强的评价性色彩和逻辑上的后置性,不能成为界定人工智能法律概念的术语。其二,就概念内涵而言,应当结合功能型定义模式和发生型定义模式,以期同时实现对“理性智能体”的“目标控制”和“行为控制”。具言之,人工智能是依托算力基础设施,通过控制系统的算法处理输入的数据,以软件或硬件等多元集成方式嵌入系统后输出,或者直接在具体场景中输出对人类某种理性功能的模拟状态,在环境中进行交互,并在目标约束下经过反馈修正,最终完成预设任务的信息系统。该种信息系统的法律本质为“理性智能体”,是界定其法律地位的主要依据。该定义的法学构造主要包括数据、算法、软件/硬件、目标/任务、反馈、输出等相互影响、互为制约的基本要素,以及这些要素在“系统—控制论”原理下的各种内生性或外显性行为(譬如“黑箱”“集成”“功能模拟”“变换”等)。其三,就概念外延而言,人工智能既包括外观上模仿生物人但本质上是集成软硬件的“智能机器人”,也包括单纯的智能系统(如ChatGPT)或硬件设备(如智能传感器),以及嵌入这些软硬件的其他“智能体”(如自动驾驶汽车)。

2.第二道滤网:厘清人工智能法律规范的属性

法律关系的客体作为法律关系主体发生权利义务联系之中介,由其承载的法律关系之性质关涉不同类型制度之间的界分,成为识别调整对象的第二道滤网。

首先,在人工智能全生命周期中,不同节点的立法价值导向有所差异。针对“人工智能科学”的立法着眼于研发端,重在科技伦理、科技政策的法律化“转译”;针对“人工智能产业”和“人工智能产品”的立法着眼于市场端,重在激励生产积极性、提高商品流通效率、维护公平秩序和保障消费者权益;而“人工智能法”则着眼于智能系统的运行、维护端,重在防范、化解人工智能部署、利用时产生的整体性社会风险。其次,人工智能系统各要素作为法律关系之客体,其承载的法律规范并非全都属于人工智能立法。事实上,涉及人工智能的法律规范由“范围和监管模式大相径庭”的多层次规则组成,主要分为“规范数据使用的数据规则”“针对特定AI应用程序或应用程序域的AI规则”“适用于广泛人工智能应用的通用人工智能规则”“应用程序特定的非人工智能规则(适用于特定活动,但不适用于人工智能)”,以及“通用的、跨领域的非人工智能规则”等不同层次,其结构、稳定性和相关度皆是不均衡的。只有相关法律行为能够映射人工智能的法律概念,二者在“系统—控制论”原理上实现耦合,才能将该条款归入人工智能立法范畴。譬如,仅涉及数据处理前端的数据确权、个人信息权益保护、数据流通交易等规范,并不符合人工智能法律关系客体的完整内部结构——具备“输入—输出”反馈链条的系统——所承载的行为模式及法律后果,因此不宜定性为人工智能法律规范。最后,人工智能立法主要着眼于公共利益维护。原因在于,(一些)环境法具有预防性、系统性和监管导向性,人工智能系统的危害在结构上类似于环境危害,往往也是系统性、社会性的而不仅仅是个体性的;并且,该种损害如同环境损害一样,实际上是未来致害的风险而不完全是既得伤害,因而很难具体衡量和追踪因果关系,受害人也会同样面临集体行动的问题。基于以上考虑,人工智能立法的性质应当是超越公私二元结构的“风险立法”,其法律关系的内容主要是针对人工智能系统造成的大规模社会性损害,为相关主体设置损害救济权利、风险防范(监管)义务,以便合理分配各方责任。

3.第三道滤网:彰显人工智能立法的理念欲求

诚然,经过法律概念和法律性质两道滤网筛选,人工智能法律规范的结构特征和问题面向已基本清晰,但锚定人工智能立法范畴还需要进一步在价值层面明确人工智能法律规范的共同理念。

从国内外发布的人工智能政策、法规,以及理论研究和法治实践看,“发展负责任的人工智能”在国际社会中已达成广泛共识,该理念是关于人工智能应当如何研发、部署、使用、评估以及治理的提议或规范性声明,它由一系列确保人工智能透明、负责和合乎道德的基本原则构成,以促进人工智能技术的使用与民众的期望、组织的价值观以及社会的法律规范一致。进言之,“负责任的人工智能社会治理是一种前瞻性社会治理、预期治理,以及针对人工智能开发与应用风险的全过程治理;构建负责任的人工智能社会治理体系,关键在于树立责任共同体意识,实现从个体责任意识到共同责任意识的转变”。因此,判断涉人工智能法律规范应否被归入人工智能立法,目光需要在“规范内容和立法目的之间来回穿梭”,通过衡量行为方式、法律后果、权利/义务构造、风险分配,以及利益保护程度等,挖掘其中蕴含的价值判断及其作用范围,进而真正“理解”法规范的意义。以《个保法》第24条第3款为例,结合第73条第1款第2项对“自动化决策”的定义,该项的规范结构与人工智能应然法律概念内嵌的“系统—控制论”原理基本相符;进一步结合该法第70条针对“个人信息大规模侵权”所设计的公益诉讼制度进行体系解释,该款也符合人工智能法律关系对“系统性应对社会风险”的内容要求;如果该款能够被归入人工智能立法,还需要在人工智能全生命周期视域下审视其内在价值是否契合“发展负责任的人工智能”理念。进言之,该款的预设立场和价值导向是对完全自动化决策的默示允许,更倾向于在保护信息主体的基础上平衡人工智能产业发展,并且“重大影响”的判断标准也从侧面反映了我国立法对人工智能产业的保护。因此,《个保法》第24条第3款的权利义务构造基本实现了“私权利”主体、“私权力”主体和“公权力”主体三方关系的平衡,即该款的利益分配模式有利于“发展负责任的人工智能”,可以将其纳入人工智能立法范畴。

(二)锚定人工智能立法的范畴

法律渊源依效力差异分为“正式法律渊源”和“非正式法律渊源”,本文侧重于从正式法律渊源层面对“三道滤网”识别出的人工智能法律规范进行分类分层,并以“系统—控制论”原理为基底设计法律渊源的体系架构。根据各类规范调整对象之差异,可以将人工智能法律渊源区分为“调整人工智能整体的狭义人工智能立法”和“调整人工智能要素/基础设施的广义人工智能领域立法”,其他部门法或领域法中涉及人工智能的法律规范则归入“广义的人工智能领域立法”。需要注意的是,本文对人工智能法律渊源类型层次的划分基于“共时性”而非“历时性”视野,其中既包括已经出台的法律规范,也包括未来可能会制定的法律规范。

其一,“狭义的人工智能立法”根据“基本法、特别法和附属法”的不同特征,区分为三类。第一类是兼有基本法和一般法属性的“人工智能法”,譬如欧盟的《人工智能法》、我国预备提请全国人大常委会审议的“人工智能法草案”等;我国“人工智能法”的调整对象应当是能够覆盖人工智能全生命周期的法律关系,基于这些法律关系建构的法律制度相较于其他狭义的人工智能立法而言,往往具有根基性、抽象性和通用性。第二类是“人工智能法的特别法”,譬如针对实体性智能的“机器人法”、针对非实体性智能的“数字人法”以及《AIGC服务办法》《上海市智能网联汽车测试与应用管理办法》等涉及人工智能具体类型或特定场景的人工智能立法;从体系关系看,如果人工智能法的“特别法”属于创制性立法,应当结合场景特质和地方特色对人工智能法的立法目的、基本原则、关联制度等进行特定化、精细化处理,但不得从实质上违反作为上位法的人工智能法的基本精神;不过,我国人工智能立法并未因循效力位阶采取“自上而下”的立法模式,而是采取领域立法、地方立法先行先试的“自下而上”模式,在时机和条件成熟时,对既有立法成果进行“编纂”,进而形成领域一般法。第三类是“附属人工智能法”,《网安法》《个保法》《数安法》等从整体上着眼于人工智能某一要素的法律法规不属于人工智能专门立法,相关条款如果只是单纯分配数据权益、保护个人隐私或施加数据安全义务,也不符合人工智能立法意旨;反之,如《个保法》第24条规制“利用个人信息进行自动化决策”行为以矫治“算法歧视”风险,其调整的涉法事实是具备“输入—输出”控制结构的闭环系统,并且内嵌“网络、数据、算法等要素相互影响、互为制约,共同决定输出模型的质量”这一智能系统运行机理,因而基于该“理论构造”设计的权利义务规范在嵌入“发展负责任的人工智能”理念后可以作为“附属人工智能法”进入狭义人工智能立法的范畴。

其二,“广义的人工智能领域立法”主要涉及“人工智能基础设施(或基本要素)的立法”以及“传统部门法、领域法与人工智能的交叉”两大版块。譬如,《上海人工智能条例》《深圳人工智能条例》属于“人工智能产业法”;如果未来有专门制定或部分修订针对人工智能的“科技促进法”“产品质量法”等相关立法需求,则将该部分条款归入科技促进法、产品质量法等领域立法的特别法较为适切,其属于传统领域法与人工智能的交叉。不容忽视的是,虽然《算法推荐规定》《互联网信息服务深度合成管理规定》等以“算法”治理为核心的规范在名称上也只是涉及人工智能某一要素或某种技术,但算法较之于数据、算力等要素处于系统“中枢”位置,在一定程度上映射出人工智能运行机理的本质特征,若相关条款以“系统—控制论”为线索能够在体系解释上形成事理脉络关联,那么可将这些条款的集合作为制度整体“打包”纳入“狭义的人工智能立法”范畴;当然,“算法安全评估”“算法备案”等只涉及算法本身的规范,仍然只能归为“广义的人工智能领域立法”。

诚然,诸如《全球人工智能治理倡议》、《新一代人工智能规划》、《最高人民法院关于规范和加强人工智能司法应用的意见》(以下简称《人工智能司法意见》)以及《人工智能术语国标》等聚焦人工智能发展、治理的宏观政策、司法意见和技术标准等“软法规范”,其作为非正式法律渊源对人工智能法治建设也具有重要指导意义,如果能在某种程度上总结提炼这些规范的实施效果,那么“在新的智慧法治秩序背景下,习惯、技术与法律均将供给秩序”。

三、人工智能立法体系化的实现路径

(一)人工智能立法体系化的方法

为了解决人工智能立法体系性不足之困境,首先需要明确达至体系化立法的理想状态所依据的方法,在此基础上回归“事物本质”理念,以内嵌“系统—控制论”原理的人工智能法律概念为基点,以体系化方法为指导,重新规整人工智能立法范畴内的规范素材。

1.遵循立法体系化的一般要求

立法体系化是法律人规整法律素材、建构法律制度、确保法秩序统一、系统性解决社会问题时必不可少的元方法,可以将体系化立法的理想状态提炼为“立法要素的内在逻辑保持一致”(以下简称“逻辑一致性”)、“立法脉络能够维系整体性意义关联”(以下简称“脉络关联性”)以及“立法价值在规范中融贯表达”(以下简称“价值融贯性”),这三个标准也是判断法律体系是否科学、合理的重要依据。如果说“逻辑一致性”建构出立法体系的“骨架”,那么“脉络关联性”则是立法体系的“血肉”,而“价值融贯性”成为立法体系的“灵魂”。

概言之,“逻辑一致性”作为消极性底线标准,要求立法体系中的法律概念不得违背形式逻辑法则,进而各层次的法律规范之间可以通过“增减类型特征”方式在概念谱系中互相推演;“脉络关联性”要求内部体系和外部体系依靠“类型序列”形成联结,特别是当多个类型要素同时出现在某一具体客体上时(即“类型混合”),揭示不同类型要素以特定方式结合在一起(各要素“共同作用”下)所构成的规则体内在的意义脉络关联;“价值融贯性”表现为一种内聚性,即属于一个融贯整体的陈述必须得到这一整体之内其他陈述的支持,因而法的价值理念也需要在法律规范中融贯地表达。

2.延续“事物本质”的理念

“事物本质”理念不仅是生成人工智能法律概念的中枢,而且是构筑人工智能领域立法体系的理论基点。若想在立法体系中彰显人工智能的法律本质,不仅需要明确其社会关系的根本特征,而且要求立法者根据事理之不同对事物做出不同的处理。

具言之,建构人工智能立法体系既要在自然科学意义上将人工智能“追溯到普遍的自然法则”,揭示“系统—控制论”语境下人工智能的运行机理,也要通过法学上的构造“将制定法中现存的某种规则体或者行为模式整合到体系之中以产生无矛盾的脉络关联”,而检验“系统—控制论”构造可靠性时应当依据法学特有的方式——通常是“逻辑性衡量”和“目的性衡量”,并且“最终具有决定性的是从理论中获得的与规范效力有关的结论语句在事理上的妥当性”。之所以选择“系统—控制论”作为行为整合和目的嵌入的理论工具,原因在于“长期以来,有无目的一直是划分生物科学与技术科学的分水岭,而智能研究的新方向便是在两种科学中找到其共性,并将生物系统和技术系统连接起来;它们的目的性在负反馈的基础上得到统一,而控制论所讲的目的就是系统与环境间的反馈,也是一种智能表现的过程”。维纳开创的控制论在系统科学中引入“应然”范畴,促成系统论从“单纯探索客观规律”向“研究目的性并强调发挥能动性”发生重大转向。而且,现代控制理论与人工智能的“标准模型”——设计性能最优的系统——也大致相符,因为人工智能一直专注于研究和构建“做正确事情的智能体”,而何谓正确的事情则是由人类为智能体设定的“目标”决定的,这种普遍范式就是“标准模型”,不仅在人工智能研究中盛行,而且普遍适用于“控制论”,即通过“控制器”来实现成本函数最小化。因此,“系统—控制论”能够为立法体系实现“脉络关联性”和“价值融贯性”预留空间,在人工智能发展的自然规律和人工智能治理的社会规律之间形成纽带。

3.嵌入“系统—控制论”原理

以“系统—控制论”为线索建构人工智能立法体系,需要在原理上进一步明确人工智能各要素之间如何形成联结,以及系统整体的运行机制。在方法论层面,分析系统原理通常需要“确定要分析的系统”“确定系统的目标”“确定系统的结构和功能”“描述系统组件之间的关系”“识别目标和功能之间的不一致性”五个步骤。

对维纳的经典控制论原理进行“哲学化约”,可以创制出融贯“目的”与“行为”等特殊内涵的概念体系——主要包括“状态、变换、过程”“信息、反馈、控制”“输入、输出”“施控、受控、控制系统”四组范畴,以及控制论范式下新的科学方法——“功能模拟”“黑箱方法”“信息反馈”。进言之,第一组范畴表征系统内部诸要素之间的关系、信息量和变化特点;第二组范畴表征主客体之间通过循环往复的信息修正来改变行为控制效果的过程;第三组范畴表征系统本身与外部环境之间的交互关系;第四组范畴表征主体目的以及趋达目标的行为。就三种方法而言,以功能模拟为基础的“智能模拟”通过计算机硬件、软件把思维的物质手段和物质外壳(即语言和算法)结合起来,自动地高速进行复杂信息处理,主要包括感知、联想、记忆、思维以及输出效应等模拟对象;黑箱方法是指“不打开黑箱而通过外部观测试验,利用模型进行系统分析,通过信息的输入和输出来研究黑箱的功能和特性,探索其结构和机理,着重于研究整体功能和动态特性”;信息反馈实质上是利用系统活动的结果来调整系统的活动,即根据过去的操作情况调整未来的行动。

基于此,“系统—控制论”原理与人工智能立法体系化的耦合点已经清晰:输入的数据可能受专利、版权和商业秘密法的约束,黑箱中运作的算法可能影响基本权利的决定,传感器的功能(反馈)可能会受到疏忽(过失)和产品责任(严格责任)索赔,系统输出可能受到知识产权法的保护并影响基本权利。而且,在人工智能与控制科学日益走向合璧的趋势下,智能控制的综合集成方法将专家群体、数据和各种计算机技术有机结合起来,构成一个更加复杂的系统,在一个相互作用、相互影响的环境中通过人机结合实现智能互补,充分发挥系统的整体优势和综合优势。如此一来,智能系统的信息综合集成、人机结合、人机互帮、智能互补等命题进一步放大了技术与制度之间的“协同演化”效应,意味着“系统—控制论”原理对人工智能领域法律规范的形成机制——立法体系化——的型塑将更加深刻,进而要求人工智能立法应当“从行为主义走向生态主义,从算法治理走向人机交互界面治理”。

(二)人工智能立法的模式选择

人工智能立法在“是否应当构建独立的法律体系”问题上,主要存在“现行法律部门之下进行场景化规制”“科技法框架内设置独立领域法”“单独构建人工智能法律体系”三种路径。前两种模式倾向于“寄人篱下”,认为延续现有法律部门的立法脉络足以容纳人工智能法律关系。一是“场景规制”论,主张根据人工智能具体应用领域进行场景化立法,通过修改现有法律使其能够兼容人工智能技术的衍生风险。二是“科技领域法”论,主张将人工智能立法作为科技立法的特别领域法,既要延续科技立法在“市场、风险、政策”领域的一般规定设置人工智能一般法,还要顾及人工智能具体场景或者功能类型,并与部门法进行交叉设计人工智能特别法。第三种路径倾向于“另起炉灶”,认为应当建构新型人工智能立法框架,但内部存在分歧。一是综合性立法和具体场景立法相结合的“总分式立法”体系,综合性立法是进行人工智能顶层设计的最佳形式,通过专门的中央立法可以强有力地指导各地、各领域的人工智能发展;该部专门的综合性法律将人工智能用于不同场景中所遵循的共性规则进行提炼,作为规范人工智能多场景应用的基本规则;对于人工智能领域立法可以采取“以基本法为主体,产业法和技术标准法为分支”的融贯型立法模式。二是由发展价值和安全价值分别统率的“二元立法”体系,主张制定“人工智能发展法”和“人工智能监管法”,为市场准入环节监管提供法律依据和参照标准。三是区分立法层次和规范类型的“分层分型”体系,认为人工智能立法应当包括“智能科技、智能要素以及智能应用”三个基本层次,不同层次的风险发生、表征与治理机制不同;或者将人工智能作为一种新兴科技,在现有“产业促进法和风险治理法”两组规范类型的基础上进行更新。此外,有学者虽然认同制定独立人工智能法的必要性,但其调整模式分属公法和私法两种不同进路:既有学者强调建立以人工智能专门法为主、以相关分散式法律为辅的公法规制体系,形成立法、执法、司法共同监管人工智能风险的公法规制合力;也有学者沿袭“民法精神主线”而不是市场规制,将“人工智能法”区分为双层构造——具有公法面向的国家安全、网络安全、数据安全和个人信息保护“基础层”以及建基于其上的人工智能法“内容层”。

“寄人篱下”的立法模式难以适应社会数智化转型的需要,延续部门法“圈地割据”的底层逻辑致使人工智能无法在既有部门法谱系中恰当定位。譬如:人工智能输入端的公共数据具有无形性、载体依赖性、非消耗性、可无限复制性、快速更新性等物理特征,难以为传统法律关系的客体“物”所容纳;在利用公共数据训练人工智能时,公共数据可以被无限复制,不会因重复利用而损害使用价值,反而整体利用会价值倍增,这一特性也使得对公共数据利用的激励制度不能照搬传统法的“产权控制”思路。进言之,公共数据种类纷繁,数据训练的算法迭代更是日新月异,以深度合成为代表的人工智能技术具有场景泛在性,“成为网络虚拟空间与现实物理世界虚实结合、融为一体的关键应用技术”,在此基础上利用公共数据建构数字空间(譬如虚实融合的“智慧城市”、完全虚拟的元宇宙)所衍生的新型法律问题,如果依靠“场景规制”或者选择传统科技法来解决,不仅会因人工智能应用场景繁多、易变、复杂而频繁立法,致使法律规范数量膨胀、稳定性降低,还会因只将人工智能视为科技法意义上的“成果”、将目光局限于研发端而难以全方位顾及人工智能“人机互动”甚至“人机融合”的新特性所引发的生产生活关系的颠覆性变革。因此,只有“另起炉灶”构筑人工智能立法体系,才能有效回应智能社会变迁带来的法律治理难题,但当前主流的人工智能立法思路尚有不足之处,特别是缺乏系统规制人工智能要素整体的理念以及平衡价值冲突的方法,未能形成契合人工智能发展规律、贯穿人工智能全生命周期的整体脉络。这就要求选择一种“提纲挈领”式的立法模式,将统筹整个立法体系的根本价值追求和串联立法体系各部分的基本线索固定下来。进言之,应当在“法律”层级适时制定一部兼具框架性和包容性的“人工智能法”,该法具有“总体性、保障性、边界性和统一性”特征,于“金字塔顶端”发挥基本法、一般法的统率功能,并且以其为核心的人工智能立法体系拥有独立领域法的基本特质;既有的人工智能产业立法、人工智能要素立法和人工智能场景的行政规制等,除了具有总则意义的部分条款经立法技术“改造”后提级为上位法,其他内容应当凸显自身“执行性”“地方性”“行业性”等立法特色;立法主体也要以“人工智能法”为统领及时修订或废止相关规范,确保人工智能立法整体协调。

(三)人工智能立法的价值体系

人工智能立法的价值欲求在“应当以何种价值作为法律治理人工智能的目标”或者“应当以何种价值作为串联人工智能领域立法谱系的内在线索”问题上分化为“价值一元主义”和“多元价值协同”两种模式。一是以“正义”为中枢的一元价值论,其内部又大致分为“数字正义”和“普适正义”两条路线。“数字正义”观将“数据正义、代码正义和算法正义”嵌入人工智能立法并具体化为若干原则;或者以“数字权利”“算法规制”和“算法评估”为中心,分别优化数字正义的基础机制、实施机制和保障机制。“普适正义”观以正义原则善待人类“福祉和尊严”,将集体层面、个体层面的“福祉”以及维持人类特性、尊重人类基本权利的“尊严”,共同作为人工智能治理的价值/目标追求;也有学者对“普适正义”进行细化,认为“人格正义、分配正义和秩序正义构成了人工智能立法的正当性基础”,而“安全、创新、和谐”则构成了“人工智能法”作为专门法的特别价值。二是“以人为本”的价值一元主义。“人工智能法”的立场主旨应彰显人本主义,其核心内涵是“人类的地位高于机器,人起主导作用而机器起辅助作用,并且在使用人工智能时应当以人的权利保障为优先”;在确立“以人和人类利益”为最高价值目标的同时,积极构建人类与人工智能交互的“主体间性道德体系”,确保“以人为本”基础上的人工智能立法达至“个体利益与整体利益的统一”。三是“二元价值平衡”模式。譬如有学者直接强调人工智能法的核心目标是“安全与发展并重”;又如“良善植入+创新与安全平衡”观主张人工智能立法体系应当平衡创新与安全价值,并将功利主义的“良善”概念植入人工智能立法规则;再如有学者虽然没有明确提出价值平衡理念,但其设计的“以推动人工智能技术创新和防范人工智能技术风险为立法目的”以及该目的之下的“公平、可靠可控可信、安全与发展并重和合规性”四大原则,实质上已经蕴含了价值平衡思想。四是“多元价值分层”模式。譬如“社会价值+功能价值”观不仅提出了人工智能专门立法的价值依归,而且进一步给定了不同立法价值的位阶,即“伦理、安全、公平、包容(人的社会性价值)优先于创新、竞争力提升、生产力提升、效率(功能性价值)”,换言之,人工智能立法的科学性体现在“通过道义论门槛(安全、权利和人性)检验的基础上寻求功利原则支持”;又如有学者主张将“社会主义核心价值观”融入人工智能立法,从“富强平等”“民主公正”“和谐法治”和“文明自由”四个维度探讨其与人工智能立法的融合进路;再如有学者在智能科技层面将“阿西莫夫—机器人三法则”的内容转化为基本的法律价值以指引“人机关系”秩序,在智能要素层面将“保护隐私、数据平权、算法透明等”作为智能要素立法需要坚守的新法律价值取向。此外,还有学者虽然采取“价值多元主义”进路,但没有明示不同价值类型之间的关系,只是将人工智能立法的应然价值予以列举。譬如有学者主张将《新一代人工智能治理原则》《新一代人工智能伦理规范》等规范中的“以人为本、公平公正、安全可控、透明可解释”等伦理和原则吸纳为基本原则,同时增加“敏捷治理原则”,以此承载人工智能应当予以遵循的价值目标。

诚然,“正义具有一张普罗透斯似的脸”,无论是试图结合人工智能要素重塑正义内涵的“数字正义”论,还是将普适正义直接平移为人工智能立法的底层理念,从正义出发自上而下式填充人工智能立法的价值欲求,始终难逃正义话语的不确定性。从“正义论”与“多元价值论”的交集看,采取何种正义方式妥善矫治“公平与效率”或者“安全与创新”这一对价值冲突引发的利益分配失衡问题,较之于追问“正义究竟是什么”,更有利于维护整体法秩序的安定。事实上,正式立法文本中罕见直接表达对“正义”的追求,诸多法律价值往往通过“法律原则”条款进行规范化改造后实现形式转换。如前文所述,“发展负责任的人工智能”理念及其包含的原则,涵盖了人工智能全生命周期需要满足的全部条件,可以最大限度预防或减少人工智能应用中的不利后果,因而备受世界各国青睐。一方面,该理念在价值体系的顶端发挥着锚定体系化对象、平衡价值冲突的导向功能;另一方面,其作为人工智能立法的根本价值追求,不仅内嵌了“协调人工智能发展与治理关系”的价值判断准则,而且《人工智能治理原则》提出的八项具体内容从“增进人类共同福祉”“推动人工智能创新”等发展面向的要求与“保障人权”“公平公正”等负责任面向的要求出发,进一步揭示了“发展与负责”之间的有机关联。进言之,通过对国家政策、伦理规范和部分立法中的价值类型“合并同类项”,人工智能立法的具体价值至少应当包括“公平”“效率”“安全”“创新”;但人工智能立法的基本原则并不完全是对价值内涵的重复阐释,而应当在价值冲突时提供决断理由,即基本原则既是立法价值的载体,也是解释规范的依据,还是填补法律漏洞的依据;因此,人工智能立法的基本原则可以大致概括为“平衡公平和效率”以及“平衡安全和创新”。从合宪性看,两条基本原则表达的“平衡”理念也是科技现代化过程中接续《中华人民共和国宪法》“协调发展”精神的必然要求;同时,两大基本原则在价值体系中处于“发展负责任的人工智能”理念与人工智能立法的具体原则的“中间地带”,向上承接、阐释抽象理念的价值意涵并向下传递,进而制约具体原则的适用方式。

当然,人工智能立法的具体原则因其部署场域和所处生命周期节点的差异,在具体化时有所不同,应当根据基本原则限制其适用范围。譬如,解释《人工智能司法意见》时需要遵循司法规律,结合司法人工智能产品和服务的特殊性,在前述基本原则制约下进行。以“平衡公平和效率”为例阐释人工智能立法基本原则和具体原则的关系,虽然《人工智能司法意见》提出的“透明可信原则”倾向于维护公平价值,但不能一味强调“算法公开”或者对研发主体、使用主体科以过多的算法解释义务,而应当在基本原则内嵌理念的约束下权衡相关主体之间的利益关系。以“系统—控制论”范式的人工智能法律概念为基准,检视“算法黑箱对程序正义形成冲击”的问题,实质是“输出端和输入端对正当程序的违反,独立于过程本身是否公开”,即“对输入端而言,如果输入端只向特定群体开放,并且该部分开放与算法本身的目标没有关联,即违反正当程序;对输出端而言,只要程序输出结果是单一性的,那么就可以反过来推断,该做法也违反正当程序”,因此“实现程序正当需要在输入端确保群体开放和目标控制,以及在输出端满足结果多元”。这就意味着,算法解释义务重在控制“输出端和输入端”的公平状态,而“牺牲算法本身的解释需求”更多是考量效率价值;具言之,技术层面的算法解释成本过高,并且对用户而言,即便公开原始代码,用户也难以理解。可见,只有从“平衡公平与效率”这一基本原则出发对“透明可信原则”进行限缩解释,才能合理确定算法“可解释”要求的程度。

(四)人工智能立法的谱系线索

在多元化的人工智能风险行为处于“类型混合”状态时,“系统—控制论”能够超越逻辑链条,在人工智能风险行为的物理性特征和评价性特征之间搭建沟通桥梁,将外显形态不同的人工智能风险行为特定化为契合“事物本质”的法律行为。基于“系统—控制论”建构人工智能风险行为的控制方式和控制结构,一般不采用“集中控制”模式,因为这种大系统模型具有维数高、关联复杂、目标多样等特点,使传统建模方式面临较大困难,可以在“结构分析”方法指导下通过“层次分解”分别确定针对不同“目标”的建模类型,采用“分散控制+递阶控制”模式来优化控制机制。进言之,分散控制中各类控制方式是同级的,以此为线索建立人工智能“研发—生产—服务—使用”行为全链条横向控制,每一类行为可以称之为“人工智能全生命周期的节点行为”,并且这些节点行为中一致嵌套了“系统—控制论”构造,即“(信息)输入—反馈(基于目标)—输出(结果)”的理论构型,而不同节点应当根据该基本构型对具体风险行为进一步特定化。递阶控制意味着节点内部的行为风险需要层级化,并且不同节点的行为风险层级不同。譬如,研发节点的数据输入风险分层控制方式,与使用节点的数据输入风险分层控制方式是不同的,即便都涉及“敏感数据”,但二者因所处节点的“事理”和“价值导向”差异,对同一风险行为的控制力度不同。此时,“分散控制+递阶控制”作为人工智能法律规范体系化的底层逻辑,能够将不同行为予以法律定型并聚合在统一的“系统—控制论”事理脉络之下。

我们进一步通过图1来简化阐释各类人工智能法律关系的核心特征及其内在脉络关联,以此为基础形成人工智能立法制度谱系的基本线索。横轴从左至右呈现了人工智能的四重指称功能,依次是人工智能技术(研发)、人工智能产业(生产)及由此衍生的人工智能产品(服务)、人工智能系统(使用)。进言之,横轴左端的节点行为侧重人工智能的“研究”面向,涉及认知科学、生物科学、计算科学甚至社会科学(取决于所采用的方法)等概念;横轴右端侧重人工智能的“利用”面向,旨在完成那些需要人类智力才能做到的事情。从行为内容看,横轴左侧的人工智能表征“以某些领域科学专家为代表的行动者群体所建构的知识体系”,专家提出的理论往往被转化为技术系统,先在特定领域进行测试,然后推广使用;如果技术系统的产出十分丰富,并且超越了纯粹研究活动的范畴,就会滑向横轴右侧,正是由于技术系统的背书证明了该学科的实用性,引起了投资者的兴趣、满足了使用者的需求。第二个观察维度——控制轴,主要分为两类控制模式:第一类将控制人工智能设想为需要具体实现的项目,第二类更多地将控制人工智能看作抽象的思辨对象。第一类模式有助于制定技术标准和法律规范,或系统性建构一门规制科学,其目标是“具体风险控制”;第二类模式无论是倾向于一种反乌托邦的未来学,抑或一种与可能性有关的解放性批判意识,其总是指向一个抽象的社会政治模式,即目标是“抽象权利保护”。换言之,具体控制模式关注方法的特殊性,主要依据系统运行的现实情况进行逐案分析;抽象控制模式则指向一般性范畴,如“算法歧视风险”“劳动关系异化”“人的主体性丧失”等问题。不可否认,一般性话语也有助于制定人工智能控制的具体规范,因为其不仅能够限定人工智能控制问题的构建方式,而且对监管活动具有促进作用;更重要的是,其还为那些以具体控制为目标的规范性文本提供实质内容,因为具体控制在很大程度上就是通过应用而使人们熟悉的抽象控制。

人工智能系统生命周期或其任何阶段的子集都可以由单独的组织(或实体)拥有和管理(例如,获取和提供数据、机器学习模型或用于人工智能系统开发和部署的其他组件的代码);并且一个组织也可以依赖其他组织来建立基础设施或提供人工智能系统生命周期所需的能力(例如,跨本地、基于云或混合的基础设施设置)。因此,横轴建立的并不是一种“线性链条”,而是在考虑了人工智能系统供应链的影响、具体情况和相关风险行为后,跨组织边界构建人工智能法律关系的抽象“类型”。因此,以“人工智能全生命周期的节点行为”为横轴、以“具体风险控制”和“抽象权利保护”的控制模式为纵轴,从八个不同维度投射出具有规范性产出的“区间”,由此形成八种人工智能法律关系,而聚合同类人工智能法律规范时依据的“系统—控制论”机理,也是串联人工智能制度谱系的基本线索之一。

1732005553539275.png

图1 覆盖人工智能全生命周期风险行为节点的法律关系谱系

第①空间和第⑤空间呈现了“在研发领域如何控制人工智能”的两类问题。第①空间预设的问题具有预判性(未来性),即如何确定那些可能脱离人类控制的人工智能技术被研发成功的条件或判定标准,以及被制造出来的可能时间。这种控制方式最为抽象,因为它从一种试图克服人类局限性的“理想型政治社会”角度来评估人工智能。相反,第⑤空间的发问对这些前瞻性考虑兴趣寥寥,它更想搞清楚的是,面对科学家制造出来的“智能系统”引发具体弊害时,研究人员应当如何归责;如果从人类中心主义立场考虑,该领域规范往往倾向于划定“研发禁区”,即设置禁止研发的系统类型、不得实施的某种实验行为,以及不能利用的某种实验材料等,这些规范的底层逻辑通常建基于科技伦理。

第②空间和第⑥空间表现了“在产业(生产)领域如何控制人工智能”的两类问题。第②空间所涉问题是在“人工智能产业化和产业人工智能化”浪潮下,整体意义上的“劳动关系”可能会发生怎样的颠覆性转变,以及如何确保人类不被“异化”为客体。这种控制同样较为抽象,因为它也是从一种试图克服人类局限性的“理想型经济社会”角度来评估人工智能。相反,第⑥空间更加关注人工智能产业发展引发的经济关系变化,该领域规范重在保护两种价值:一是“公共利益”层面的公平市场秩序,二是“个体利益”层面的企业发展权益。既不能过度放任市场自由,也需要适度干预市场行为。

第③空间和第⑦空间表达出“在产品(服务)领域如何控制人工智能”的两类问题。第③空间所涉问题相对具体,关注人工智能产品(服务)大规模部署应用时,如何确保人格尊严不被侵蚀,即怎样防范“网络、数据、算法等人工智能各要素相互联结、共同作用下,人工智能运行的内生性风险”,譬如防止歧视性的数据输入和带有偏见的算法输出,保障人类在经受算法决策时的知情权等。与之相对,第⑦空间更关注提供各类人工智能产品或服务的主体,如何保证其产品质量、确保其服务合格,以及一旦发生人工智能产品致人损害或提供的人工智能服务侵权时,如何判断侵权构成、如何确定归责原则、如何分配侵权责任等,最终落脚至受损害的利益得以填平并且未来致害风险得以预防。

第④空间和第⑧空间主要回答“使用人工智能系统的用户如何控制人工智能”的两类问题。第④空间与第③空间相似,所涉问题比较具体,关注人工智能系统被社会群体(消费者)广泛接受时,用户如何处理好“不同用户之间”和“用户与非用户(第三人)之间”的“人工智能系统使用关系”,问题关键在于,采取何种方式确保人际关系处于合理的距离。譬如,可以尝试赋予受人工智能影响的相关主体“侵害防御权”“主动避险权”等,只不过用户和第三人的权利构造及行权条件因情势不同而有所区分,典型场景如“元宇宙空间中如何在法律层面实现自我保护”。进言之,第⑧空间的视角切换至使用者,控制该类主体可以采取设定一系列义务的方式,但最基本的积极义务是“合理使用人工智能系统”,最基本的消极义务是“禁止滥用人工智能系统”,具体义务可以在这两个原则之下进一步类型化。

整体上,虽然人工智能法律关系相互交错关联,但这“八重空间”有助于突出规制人工智能的政治、经济和社会利害关系,它们共同构成了规范性冲突的背景图,使我们能够将规制的场合、参与规制的不同主体,以及不同性质的规制方法映射其中,从而在人工智能全生命周期系统性建构法律规范体系。

四、余 论

诚然,本文在论及制度体系时因篇幅所限未能全面展开制度内容并深入论证制度选择的必要性、正当性和可行性,但基本明确了形成制度体系的内在线索和制度建构所依据的法律关系谱系;未来,仍需从我国人工智能立法素材中不断总结制度建设经验,并比较借鉴域外法,进一步完善人工智能法律制度蓝图。经过前述作业,具有逻辑一致性、价值融贯性以及整体性意义关联的人工智能立法体系至少在方向把握和操作方法层面完成了粗线条的脉络勾勒,框架设计也基本成型。此时,以人工智能立法体系为主要研究对象的人工智能法学可以界定为:以“发展负责任的人工智能”为理念追求,以“系统—控制论”为方法论指导,以涵盖“人工智能全生命周期”的法律规范的理论建构与制度设计为内容,形成包括“总论”“数据法学”“网络法学”和“算法规制”在内的人工智能法学学科体系。虽然人工智能法学的发展并未与人工智能立法体系化同步推进,但人工智能立法体系化过程的经验教训需要通过人工智能法学不断总结并上升为教义学知识;同时,人工智能法学也应当具有一定的理论前瞻性,以期为人工智能立法体系化的法治实践提供智识支持。

原文刊载于《华东政法大学学报》

1732005543824766.png

《数字法治》专题由上海市法学会数字法学研究会特约供稿,专题统筹:秦前松。