中国实践
东方法学特稿|陈吉栋:公私交融的人工智能法
2024-03-11 15:18  点击:12814

作者:陈吉栋,同济大学法学院副教授,上海市人工智能社会治理协同创新中心研究员、法学博士。

作为应对人工智能时代新兴法律问题的法学学科,人工智能法学与数据法学一样,其前提性命题、基本范畴均独具特色,这就决定了试图用传统线下社会单一部门法理论或制度来解决智能社会中具体法律问题的努力往往会产生只见局部忽视全局的结果,由此便需要寻求契合智能社会本质要求的法律思维逻辑与具体制度设计。2023年,随着理论研究的深入和立法实践的倒逼,人工智能法研究在核心议题上的共识逐步呈现,其“公私交融”的特征更为鲜明。公私交融深层次的意涵是,人工智能的研发与应用导致了主体及其利益关系呈现出超越传统公私法范畴的融合景象。有学者曾表达了人工智能可能导致“私法的消亡”的惊人断言,与所谓“公法易逝,而私法长存”的警语截然相反,显示出人工智能与法律关系的复杂性,这层含义涉及公私法划分乃至法律、技术与其他秩序来源关系的重构,该重构建基于技术之上的不平等与信任关系重塑,在人工智能法的主体、权益、行为等方面均有呈现。本文考察学说,辨别源流,提炼人工智能法公私交融特征的主线。

一、事物本质与人工智能法公私融合的基本内涵

对于人工智能及智能社会事物本质的认识是困扰人工智能法研究的首要难题。“立法与法律发现都是一种制定法规范与生活事实的调适(Angleichung),一种应然与实存同化、对应的过程。但这里需要由一个令规范与事实获得一致的‘第三者(Tertium)’,亦即在应然与实存之间有一个调和者存在。我们需要一个同时能够代表特殊与一般,事实与规范的构造物。这个调和者就是‘法律理由(ratioiuris)’,即‘意义’,它不仅存在于制定法中,而且也存在于生活事实之中,法律理解意味着在‘意义’中产生对应,意味着事物的本质(Natur der Sache)。”依据这一论述,人工智能法研究中的事物本质并非一个个涉人工智能案件的事实,而是隐藏在案件事实下的一般规律,是蕴含在生活实然中的必然。

对于事物本质的理解决定着人类把握客观事物的程度。叶竹盛通过援引富勒的程序主义法治观,提出人工智能蚕食着上述法治理想存在的两个基本前提。其一,为了实现人有能力理解法律这一前提,克服法律的不确定性一直被视为是当代法学最重要的任务,智能社会对此能起到何种作用尚待观察。其二,对于人们有能力理解事实这一前提,“智能时代的人们将在事实问题上面临愈加严重的认知难题”。认知事实的困难本身及其所导致的认知自主权的丧失,最终将导致法律自主实现困难。不能聚焦事物本质的认知,不仅造成了人工智能法本身研究在理念、规则上的偏差,也导致了学者对于人工智能法研究的误解。而在现有条件下推进对于人工智能事物本质的理解,唯有深入实践且有效利用吸收其他学科的观察成果分析实践方有可能。

认识事物本质不仅决定着法律规则产生(立法)与个案裁判(司法),也影响着立法理念的产生(法理)。没有对事物本质的了解,法律理念是无本之木,法律规则是无源之水,个案裁判也将永失正义之基。既有研究在人工智能法调整对象、属性、权益关系乃至法律责任分析上的错误,多是因对于事物本质认知错误所致。对于作为人工智能核心要素数据的认知,集中展现了事物本质认知的障碍。数据安全法第3条第1款将数据界定为以电子或其他方式对信息的记录。由此,从内容与形式区分的角度界定数据成为通说,然而我们讨论的数据仅指电子形式的数据,此点可以与欧盟数据治理法(Data Governance Act)相印证。数据以“电子形式”存在导致了其独特的权益内容及变动规律,学理上尝试引入电子的、非竞争的、可复制的、“不断产生的”等词汇描述这一规律的法律内涵;在政策上探索依据数据资源、数据资产、数据产品与数据资本等数据生命周期的形态变化配置主体间的权益。这些努力虽为法学研究揭示利益变化与权益配置规律提供了帮助,但仍未刺破数据的事物本质。那么,究竟什么是隐藏在数据电子形式背后的事物本质呢?无疑,数据是电子形式的,是在特定系统中记录并流通的,数据的处理(含流通)过程意味着“计算”,计算意味着计算资源的投入并依赖于数据的融合。因此可以被计算构成数据的本质属性。正因为可计算属性而非电子形式决定了当事人之间权利义务关系的法律内涵,也恰是可计算性而非生命周期划分决定了其合约设计与登记制度的规则设置。然而,作为数据本质特征的可计算性仍然停留在数据科学研究中,亟待法学研究者深入挖掘。

可计算性的既有研究可分为三个层次:数据客体的可计算性、数据产品的可计算性以及作为个人信息判断标准的算法识别性。作为数据科学基本原则的可计算性有广狭两义。广义的可计算性是伴随着数据科学生命周期,从原始数据的收集和清理到模型的建立和评估,每一步都依赖于计算;狭义的可计算性则是指算法或模型构建的计算可行性。在数据科学界定之上,管理学者试图将可计算性用于描述数据产品的特性。在这一层次中,可计算性意指一个数据产品被购买方用于清洗、重构、与其他数据融合并最终产生新的分析的可能性。如数据的维度、颗粒度、观测量等,指标越多,可计算性越强,价值越高。目前尚未看到法学学者对于可计算性的观察。彭诚信在论述个人信息本质特征时提出“算法识别性”观点。这一观点认为,数字社会中的个人信息不仅要满足“可识别”的要求,还应围绕算法技术加以限定,即通过算法识别出的个人信息,才是典型的个人信息权客体。据此,个人信息应同时满足识别性和算法性特征,即算法识别性才是个人信息的本质特征。我们姑且将这一特性作为可计算性的第三个层次。

法教义学在自我中心主义、危机、刺激及令人不安的开放以及日益巩固的封闭组成的循环中发展。面对智能社会的治理需求,积极加入事物本质的讨论中,以释(教)义为体,以社科为用,应该成为人工智能法学研究的明智态度。人工智能法研究中事物本质虽然所指广泛,但其基本内涵是主体数字化、数据财产化、财产债权化、权利社会化,以及责任客观化。而这一切又均发生于技术(体系)所造成的不平等与随之而来的信任关系重塑。不平等及其结构化构成了一切对于人工智能法事物本质讨论的起点。不平等因人工智能技术形成,技术的研发与应用形成新的生产力、重塑既有生产关系,客观上也导致了私法关系因利益内容的外部性与公共性呈现出社会化趋势,服务提供者与用户关系的失衡,中央与地方权力及其运行的变化。这就是人工智能法公私融合的核心内容。不平等及其结构化在身份、地域之外,叠加了技术因素,发生了新的交叉与分层,迫使法律人在莱斯格“架构理论”外,探求新型权利的综合内容与规制风险等调整路径的有机融合,这构成了公私融合的主要支撑。因此,正视技术不平等及其结构化,探寻人工智能法理论框架及其规则发现,公私融合既是讨论起点、核心支撑,也是建设归宿,这超越了公法私法化和私法公法化的讨论,显示出更为恒久的理论魅力。

二、风险作为法律原则的观察方法

基本原则构成了法律规范体系的基石,尤其是对于人工智能法这样尚处于演化过程中的法律部门。基本原则作为规范的类型之一,其发现本身应在法律理念的指导下完成,在尚无人工智能国家立法的情况下,对于人工智能法的基本原则与应然理念的讨论不能分开。因此,及早地发现其基本原则不仅有利于正确法律理念的产生,也有利于避免立法不能适应科技快速迭代从而影响个案正义。在人工智能地方立法探索中,不乏对产业发展原则的规定,不过这些原则的指导对象是产业发展而非人的人工智能研发与应用行为。受人工智能法被列入国务院立法计划的影响,学者对于原则的设计方案开始出现。

人工智能法律规范范围的明确有助于对其基本原则的讨论。一部法律规范体系的边界最终还是由其调整对象决定。因此,发现界定人工智能法调整对象及其规范体系的关键在于其调整对象的确定——人与人之间因人工智能研发或应用而产生之事实。陈亮从界定人工智能之法律内涵、规范本质与立法理念入手,提出以“发展负责任的人工智能”为其理念追求,同时具备“事前性、系统性和规制性”特征的数据法规范、网络法规范和算法规制规范才属人工智能法律规范之列。问题在于:第一,沿袭规范之广义狭义区分,新立之规范与既有规范的关系应得到平衡,狭义人工智能法规范设计仅需在既有规范的空隙中进行,就像并非所有的民法规范均处于民法典中一样,也并非一切广义的人工智能法规范均须被编纂进形式化的人工智能立法文本中。第二,人工智能规范设计的重点在于狭义规则的发现,发掘人工智能法的公私融合属性并科学评估其对安全、可信、权利(力)义务设置以及调整方法等的具体影响,才能厘定狭义的人工智能法规范范围。

人工智能法基本原则类型与内容是讨论的基本内容。侯东德明确了人工智能法基本原则的类型:即公平原则,可靠、可控、可信原则,安全和发展并重原则,合规性原则等,全面且具有启发意义。值得讨论的是:第一,立法理念、基本原则与立法目的的关系问题。一般来说,公平、平等、自由是支撑民法的基本价值理念,在这些基本价值的指导下才可能产生法律规范体系(包括基本原则),而所谓的立法目的是立法者通过立法本身所要实现的短期或近期的目标,比如侯东德所指出的“安全和发展并重原则”显属此列。第二,至于如何看待公平与平等的关系问题。在民法上,公平聚焦于法律行为的内容设置,除了特定例外,“自愿即公平”。与此不同,平等主要针对主体地位而言,意即民事主体不得强加意志于他人,但是“有力说”认为民事主体不对他人负有平等对待的义务,所以民法典第4条平等原则的一个基本内涵是法律平等保护各种民事主体,除特别法为保护未成年人、老年人等弱者设有特别规定(民法典第128条)外,国家机关不得在法律保护上实施差别待遇。而侯东德认为人工智能法公平原则的特定内涵是地位平等、分配公平、正当的差别对待,这一论述显然杂糅了公平和平等两大基本原则的内容。那么,到底什么是人工智能法的基本原则,抑或到底什么是讨论人工智能法基本原则的方法,遵循前文所指出的考夫曼法律发现的三阶段——法律理念、法律规范、法律判决,对于人工智能法规范(基本原则)的讨论应该置于法律理念指导之下,而理念的形成取决于对人工智能关系事物本质的理解,如此问题即演变为如何理解人工智能法的事物本质,目前来看,除了“计算”,这一途径能且只能是“风险”。

技术作为人类可以加以利用的资源,创造了我们的经济以及随之而来的财富和安全。人工智能风险是一种技术风险,“以ChatGPT模型为代表的新一代人工智能仍然易于引发……人工架空、价值引导数据与算法控制等方面的风险”。风险与安全相关,所以安全作为人工智能法基本原则(或价值)并无争议,安全原则的立法体现在诸如网络安全法、数据安全法等法律规范中,此处不再赘述。值得注意的是,风险与信任也有莫大关系。物理世界中的信任产生于主体之间生活秩序的连续性,连续性本身降低风险产生信任。在前现代社会,连续性根植于家族、地域等共同体社会关系。然而,建立在时空分离基础上的现代社会中,人、物、信息的高速流动,社会关系经历了跨时空重构,从而衍生出建立在“脱域”之上的现代信任。“脱域”导致了信息的不完整,打破了传统社会信任的连续性,陌生人之间的信任多寄托于对复杂技术系统的信任。这一过程其实也经过了功利计算,即信任的产生(及多少)取决于主体对于风险判断能力(或容忍度)的大小,但这一计算是在前文所提出的结构化不平等体系中完成的。在人工智能时代,“脱域”现象进一步加速,由于缺乏对智能社会交往风险的基本认知,使得数字信任难以产生。具体来说,在数字空间中,信息及其象征标志更高速流通,数据空间所依赖的复杂智能巨系统远远超越专家系统,这不仅会导致新型风险的产生,也会加剧人们对交往风险的认知难度。在此意义上,风险不仅影响着信任的产生,也构成数字信任的基本内涵。

可信原则的基本内涵是降低风险,促进交往,实现具体主体之间的具体信任。其规范重点是,人工智能体及其所处的技术系统的可信。在规则设计上,一般是赋予系统方以更多的公私法义务,包括安全保护,还包括公法上的评测认证合规义务。此外,还需要约束前端服务提供者的行为,如有限风险人工智能系统应用者的透明义务,可以说,可信贯穿了人工智能法的全局,在根本上保障了人类对技术的信赖,从而避免了技术与自然、回归传统与拥抱智能之间的张力。

如果从风险的角度观察既有研究,就安全原则和公平原则的讨论主要围绕特定领域的风险进行展开,这既包括风险义务的分配、风险救济的责任归属,也包括对于风险的治理。关于公平原则的讨论主要围绕反对歧视问题,如在就业、教育以及超级平台等具体场景下存在算法歧视、算法剥削等问题。关于安全原则,在具体场景上已有网信安全及信息安全等相应安全治理设计尝试。这些研究将人工智能法推向中观甚至微观的层次。在此基础上尝试构建公私法交互的法律体系,兼顾伦理、技术和法律的治理框架。

可信原则具有融通公私法的规范内涵,与诚实信用原则与信义义务均有关联。申言之,可信具有私法上诚实信用原则的基本内涵,针对暗黑模式下个体切身利益的保护,在现行法上多通过合同或者权利模式来解决这一问题,但仍需要风险规制实现对社会公共利益的维护,此时信义义务被适时提出,用来应对结构性不平等背景下主体间风险被大规模操纵的风险。

三、主体问题研究脱虚入实

私法正是自主体制度得以展开,又是以对主体(从终极意义上讲以对自然人)的关心和关怀为归宿。就人工智能法主体制度的基本内容来看,虽然也涉及安全与监管问题,但究其根本仍然是人与人之间成立的研发与应用关系。彭诚信用“人可非人—人皆为人—非人可人”来概括私法主体的发展历史。鉴于个体与技术(及其利用者)关系所致的结构不平等,人工智能法更应该是闪烁着人文主义光华的“人法”。人工智能意志以及人类对其发展影响的接受构成了人工智能法主体讨论的出发点也决定了其公私融合的基本面向。

(一)一般讨论

迄今为止,“人工智能主体否定说”仍是主流学说。“否定说”的典型表述是,法律主体的本质在于自我意识、理性和自由意志,人工智能并不具备独立自主的意识,无论在公法还是私法上都不可能取得与人平等的主体地位。人工智能不是“人”,也不是“拟制人”,而是人类创作的辅助工具,其执行的仍然是人类的意志。这些讨论在公私法中都有体现。比如,在刑法上,人工智能体无法产生故意或过失的罪过形态,也不具有刑罚的必要性。在知识产权法上,人工智能生成物归根到底仍然属于人类智力劳动成果,人工智能尚不能成为著作权法的主体。“否定说”在域外实践中颇有支撑。

“肯定说”备受诟病,但其支持者总能从技术不断迭代及其应用不断深入的趋势中找寻正当性。“肯定说”的基本理由大致如下:第一,在技术上,人工智能作为独立智能体的智慧条件已经具备。第二,在认知上,人类对智能机器普遍产生了道德情感认知。第三,在解释路径上,对立法条文作目的论扩张可对人工智能进行法律授权。毋庸置疑,即便在生成式人工智能掀起发展狂潮的当下,“肯定说”也未取得优势地位。而且“肯定说”也需要回应人工智能仍然能力较弱不能成为社会主体的基本现实,为人工智能设置监管人,从而解决人工智能侵权责任承担的现实问题。

组织体法律人格研究构成了法律主体最活跃的部分。在人工智能法主体制度的既有研究中,区块链去中心化自治组织(DAO)法律性质问题已被提出,域外已有立法实践,但2023年度少有论文出现。鉴于针对事物本质的纷争短期内难以取得一致,主体问题的讨论可能要持续到实定法作出规定才能告一段落。在最终意义上,人工智能主体问题取决于人类对于技术发展水平及其对于社会经济影响深度和广度的认知与接受程度。

(二)AI agent问题被提出

AI agent并未引起理论研究上的重视。早在2018年,人工智能译丛“独角兽·人工智能”系列丛书开始编译时主编彭诚信即十分重视AI agent的翻译,最后译者放弃了代理和主体等译法,选择了“智能体”这一定译。但此后,AI agent未获得立法和理论研究的重视。究其原因,既有人工智能技术发展路线的影响,也有研究者认识的问题。

在技术上,AI agent并非一个新概念,其随着人工智能而诞生,尚无统一界定。通常来说,AI agent指的是一种具备自主决策能力、可以代表用户执行任务、与环境交互的智能实体或虚拟智能体。它可以基于规则、知识或学习独立地感知和理解环境,并采取适当行动以实现用户目标。在不同人工智能领域,AI agent既可能指代某个虚拟系统软件,也可指代一辆智能网联汽车。AI agent应用场景广泛,比如,AI agent可以根据既往的旅行数据(旅行的时间、方式等)、旅行取向(喜欢重游故地抑或另觅新奇)为人类作出旅行安排。

AI agent与人工智能系统、数字人、程序软件不同。人工智能系统(AI system)指涉利用计算机科学和人工智能技术构建的系统,使其能够模拟人类智能或执行智能任务。人工智能系统可能由单个或多个agent构成。数字人(digital human)是通过模拟人类外貌和行为来创造与人类交互的虚拟人。数字人是agent的具象形式,可以是多个agent组成的系统。agent与一般的程序软件也有不同。agent具备一定程度的智能和自主性,能够进行决策、学习和自适应;而程序软件是为了满足特定任务或功能需求而开发的计算机程序,只能完成特定的任务。

寿步由agent译法入手进行了法学讨论。他认为将AI agent译为“行为体”,在法学与AI的交叉研究中,就可以对应于可能的“法律行为”,找到可能的“法律主体”。但AI agent能否实际成为法律主体?它与人类作为法律主体有何异同?这将是随着AI的不断发展而需要进一步回答的问题。如果追溯一下,寿步在另一篇文章中曾指出,“AI与法律领域中AI相关的‘法律主体’或‘拟法律角色’应该是agent”。

四、法律行为研究进展不大

如果对于数字空间及其交往客观规律稍加注意,即会发现法律行为的研究仍未达到理想的程度。既有的研究中仍然聚焦在智能合约,对于共识、加密、签名等人机交互背景下的自然意思表示的电子化及其解释路径问题挖掘不足,遑论对于技术设施与架构之于主体意思表示影响根本规律的研究。因此,理论研究相对于可见的数字交往前景存在不足。

(一)智能合约法律构造与应用场景

当前,我国数据交易进入快速发展时期,理想状态下链上数字资产交易需要智能合约这一执行机制。在智能合约应用场景的研究上,赛铮指出保险智能合约与传统保险合同的区别:即“保险智能合约是由代码编写而成的合同,其‘成立—有效—执行’的过程全部由代码在区块链中加以实现”。具体来说,“(1)合约成立,即参与缔约的双方或多方当事人商定后将共同合意编写成一份代码表示的智能合约;(2)合约有效,即将智能合约内容发布至区块链,验证节点通过后产生新块,并存储于区块链各节点中;(3)合约执行,即存储于区块链中的智能合约一旦触发执行条件,经过各节点验证通过后便不可逆地自动执行合同内容”。该文对于智能合约合同属性的判断,仍处于既有研究的框架下,但关于合约缔约履行过程的分析进一步细化。不过,对于智能合约意思表示的分析必然随着实践尤其是技术的变化而变化。因此,区分智能合约的应用场景变得重要。意思表示的根本问题是自然语言代码化带来的解释规则变化。随着技术的发展,智能合约场景会逐步增多且会引发组织管理与民事权益等公私法研究落地。不过,其中尤其重要的是,随着意思表示的电子化,对其主观构成的分析将成为难题,尤其是在生成式人工智能应用日益深入的背景下。鉴于我国对通证经济的谨慎态度,现阶段更有实际意义的是对数据价值利用中的意思表示研究。

(二)同意授权的公私法内涵

数据作为人工智能发展的基质,构成了人工智能法的核心内容。现阶段源于个人信息收集的数据生产流通不能摆脱个人信息的二元基因的束缚。数据与个人信息的区分系于“匿名化”(个人信息保护法第4条第1款),但由于实践中处理者多不能做到严格意义上的匿名化,同意规则仍然发挥着为个人数据处理提供正当性的作用。虽然同意具有公法的属性,但数据流通交易终是在两方私法主体之间进行,是否以及在多大程度上可以使用民法原则来解释数据保护法中的同意引发了世界范围内的讨论。中共中央、国务院《关于构建数据基础制度更好发挥数据要素作用的意见》(以下简称《数据二十条》),把这一问题凝炼为个人信息数据的“确权授权”问题,“授权”是什么?如何处理同意与授权关系等问题应受到学者重视。

个人信息处理“知情同意规则”在程序上保障了信息主体的自决。这种自决当然有其公法意涵,单就民法而言,同意最基本的含义是其代表了信息主体在“知情”情况下对于信息处理行为的“许可”。如果引入“授权”的讨论,如何区分同意和授权的关系,尤其是这种区分在数据价值利用的实践背景下是否具有正当性与可行性,成为不可回避的问题。

程啸区分了授权与同意的不同规范内涵与效果。他认为,基于个人同意而实施的个人信息处理活动非但可以无条件撤回,而且受到目的、方式和范围的限制,不可能包含对个人信息后续全部商业化利用,因此要真正实现对个人数据的商业化利用尤其是取得个人数据上的稳定的财产权,就必须经由授权而获得(达成合意)。而且,同意仅“具有排除处理行为非法性的法律效果,惟有个人授权方可能产生个人数据许可使用的权利义务关系的效果”。进一步说,授权属于民法上的授权,授权的客体是个人数据上的财产性权利,被授权人是数据处理者,授权的实现路径是许可数据处理者对个人数据进行处理。因此,授权的落实需要个人与个人数据处理者之间成立个人数据许可使用合同。

不过,在多数情况下同意的内容本身包含对于个人数据财产价值进行处理的同意,则在该处理范围内的处理目的与内容已经为同意所决定,且程啸所说的个人数据的后续商业利益利用也仍需同意而非授权所能单独完成。在此意义上,授权可以构成同意的结果,所谓的“授权”等于且依赖于同意许可,许可依赖协议,数据许可合同产生许可效力。可能更为可取的是,重视同意的权利基础与法律意涵的公私交融。具体来说,同意处理最为基本的权利基础建基于公法,信息主体授权本身很难具有独立性,且作为企业数据权益来源正当性基础的也非信息主体的授权,因为处理者的财产权益并非信息主体授予,而是后续其自身生产行为所得。换句话说,其财产权益并非传来的,而是自身原始形成的。这也是人工智能法公私融合属性的典型体现。

彭诚信曾指出,在处理者处理阶段,个人信息上仍负载着人格利益,因此处理者仍负担着多重的义务,这决定了后续司法介入同意讨论的限度及其如何处理两者关系的难度。总之,同意规则及对于该规则的反思,在本质上是数据价值利用正当性与效率的平衡问题。规则设计要考虑如下两个现实问题:首先,作为同意效果的授权,即便有其独立意义,也仅限于匿名之前;其次,在同意机制尚且面临实施困难的背景下,授权规则如何适用,拷问着我们的平衡能力。

五、权利研究的进展与不足

新兴权利构成人工智能法研究的核心内容。按照经典表述,“利益的正当性评价结果即正当利益,在法律上具体表征为权利,从而沟通利益、正义与权利三者的关系”。法律主体维系其智能社会公私交往产生了新的欲求形态,新欲求的实现构成了兼及公私面向且处于法律可予评价的利益状态,利益经过正当性评价即构成了法律上的正当权益。这一研究公私法均有涉及,聚焦在数字人权、数据权利的讨论,也有少量研究发现了加密权等值得关注的问题。

(一)数字人权与人的尊严

对于数字人权的研究在推动与反思之间曲折前进。数字人权是否构成第四代人权以及数字人权的证成,目前学界仍未达成共识,相关讨论仍在积极进行。以张文显、马长山为代表的学者旗帜鲜明地提出“无数字,不人权”的命题,进而提出“数字公民”的身份确认以及相关权利保障,旨在消解数字公民的机制性游离,维护数字社会的公平正义。就规范基础而言,一般认为,数字人权是一种宪法基本权利。究其原因,数字人权具有防御权、客观价值秩序以及“结构耦合”等功能,且对“人权条款”与“人格尊严”的诠释进一步展示了宪法是容纳数字人权的主要载体。桂晓伟从数字人权的人性基础和法律渊源两个方面,论证了“数字人权”之人权属性,进而对数字人权的内容进行构建,提出数字人权由“网络接入权”和“数据自主权”两项衍生人权及其相关特定权利组成,并以防御、尊重、保护和促进机制维系个人、网络企业和国家三元结构的良性运作。宋保振关注在数字鸿沟和数字红利差异逐渐拉大的背景下催生出的“数字弱势群体”之公平权保障。

另有反对者提出,“数字人权”非但不构成“第四代人权”,甚至不宜作为人权的下位概念,因为从社会系统论来看,“数字”与“人权”的耦合关系是两者互为环境、相互激扰,无法融合为整体的“数字人权”,并且数字科技与人权伦理具有不可通约性,因此,无需单独制定“数字人权”的人权领域法。

从权利理论上说,数字人权可能更应该思考的问题是哪些才是人工智能带来的损害,权利源于人类不正义的经验(不义)。这方面,公私法均有初步成果。人的尊严构成了法律的最高价值,智能社会对人的尊严至少产生了如下两个层面的冲击:第一,智能社会导致人与权利的关系发生重大变化。在智能社会权利丧失了保障人之根本利益的能力,权利作为个人内在价值的正当性基础,可能被智能科技“架空”。第二,智能社会导致人的尊严与法治严重脱钩。智能科技可能使人陷入自主性危机,阻碍了个人成为法律上期许的自由意志主体。这意味着,即使是仅存的尚处于个人支配之下的权利,也可能因不断强大的智能科技而无法有效实践——人的行为和后果之间的联系被割裂了,个人难以实现自主的塑造,这就是智能社会中人所面临的自主性危机。葛江虬同样基于人的尊严之考量,对元宇宙框架下数字空间的人格要素保护的财产法、主体法路径给予否定性评价,认为这些路径忽略了侵害人格的本质是侵害人的尊严这一事实。

(二)数据产权讨论尚未刺破事物本质

《数据二十条》提出了“数据资源持有权、数据加工使用权、数据产品经营权等分置的产权运行机制”,引发了法学者尤其是民法学者介入数据权利讨论的热潮。无论对数据权益配置提出什么理论方案,都应回答如下几个问题:即在什么客体上,确认哪些主体的什么权利,通过何种途径确保权益的变更流通。

数据产权的“三权分置”实质上就是对于企业数据财产权权利内容的描述或形象化呈现。权利主体是企业或者数据劳动者,权利客体是数据财产,其范围包括原始数据、数据资源和数据产品。数据财产权是一种私权、财产权、绝对权,是直接支配和排他的权利。细化排他性的观点认为,应在数据分级分类的基础上构建起完全支配绝对排他、完全支配无排他性、有限支配有限排他的分级分类确权规则。然而,既有研究对数据财产权的权利内容观点不一:有的认为应包括持有、利用、收益和处分四大权能;有的认为内容可分为访问权、复制权、使用权和处分权;还有的认为,可分为持有控制数据、处理利用数据、获取数据收益、处分数据,遭受侵害或者妨碍时的停止侵害、排除妨碍和消除危险请求权

数据赋权的权利束进路得到了沿袭,这类观点多依据霍菲尔德权利分析理论(权利束),区分数据生产、数据处理和数据治理等行为,在提供者、采集者、存储者和信息的加工者、分配者、使用者等不同主体之间进行精准确权。如此以数据资源持有权、数据加工使用权和数据产品经营权的动态赋权形式,建立数据主体享有的数据控制权、数据处理权、数据处分权和数据收益权的权利体系。熊丙万“财产权标准化”理论可谓是权利束理论的升级,根据数据财产权利人与不同社会交往对象之间的社会关系熟悉度,分别构建相应标准化程度的数据财产权样态。

数据持有及其保护被认为是解决目前数据确权难题的前提问题。在此认识下,数据持有是一种事实控制。数据持有权则是数据产品化过程中不断动态发展的权利。在要素化阶段配置分享而非分置的产权,而在数据产品化阶段配置可分置的稳定的持有权。整体上,数据持有权可以通过用户协议、反垄断法等获得保护。

国家知识产权局开展数据知识产权工作地方试点以来,数据知识产权的学术讨论增多,构成了数据赋权的另外一种路线。支持“数据知识产权”的学者大多认同“数据产权是一种新型财产权”的观点,并将其客体限缩于满足一定条件的商业数据集合。知识产权论者多肯认商业数据作为公共物品且具有非竞争性和非损耗性,论证商业数据集的创新性多从主体投入智力劳动、且数据集合结构方式具有一定的独创性单方展开,也有直接将数据认定为新型知识产权客体的主张,后者在客体范围上较前者更广。

数据知识产权仅具有“有限排他性”且具有权利分置的制度构成。这就决定了其赋权形式可采取“控制—共享”“保护—限制”的二元权利主体构造:赋权之一是数据制作者权(有限排他效力的财产权),包括消极权能(禁止权)与积极权能(控制权、开发权、利用权);赋权之二是数据使用者权,即用户及其他同业经营者的访问权和携带权。有学者进一步论述了数据专有权可以按照商标法的实施模式进行规范构造,权利的取得可以采取注册取得模式。数据知识产权反对者众多。民法学者认为,数据权益与知识产权在权益结构、期限限制、保护理念、权利客体要件存在诸多不同。知识产权学者则认为,现有知识产权制度以及合同、侵权等规则已经为商业数据提供充分保护,无需在立法上赋予新的数据权利。

需要指出,赋权被认为是数据流通交易的基础制度,前述理论探讨为国家层面的数据立法提供了正反两方面的理论参考。不过,数据赋权并非天然具有正当性。由于(电子)数据在系统中记录,在互联网技术架构之上建立的链、网、云、端体系内实现流通,这决定数据的计算无处不在无时不有,在形态、价值等不断流变的过程中形成不同主体之间的权利义务关系。因此,《数据二十条》中的赋权方案本身并非权利分置的方案,因此所谓的数据三权分置本身仅是政策表达并无规范意义。更为重要的是,对于数据排他性的讨论以及登记制度设计仍然应采取开放态度。此外,赋权研究不应忽视资源分配的基本现实(谁掌握着数据)及其规律(依靠什么控制数据),忽视这一前提,赋权制度的设计可能是不正义的。一个有意思的观察是,在Web3.0时代,区块链技术构筑的分布式网络推动了内容价值向个人分配(确权)的进程,但是,“生成式人工智能将会成为Web3.0时代的网络集权工具”,散落在用户手中的数据资源可能会再次聚集。

六、生成式人工智能激发法律责任讨论的客观化趋向

人工智能研发、生产与应用风险实现即会产生致害责任承担问题,“人工智能致害谁担责”成为经典设问与普遍关切。在法律责任的理论研究中,应用主体的义务判断、致害归责原则乃至赔偿范围是讨论的重点。

在人工智能致害归责原则的选择上,严格责任成为趋势。郭少飞认为,人工智能承担侵权责任时,一般不论其主观过错,该责任应当是一种客观责任、严格责任。袁曾则基于“结构化分析致损时的状态与原因”提出四种不同情况下的归责原则。

随着《生成式人工智能服务管理暂行办法》的发布,如何判断服务提供者的责任成为学者研究的焦点问题。徐伟提出认定生成式人工智能服务提供者过错的两个维度:一是对侵权内容的“生成”存在过错;二是对侵权内容的“移除”存在过错。生成维度的过错判断取决于服务提供者注意义务的高低。至于生成式人工智能服务提供者是否适用民法典第1195条等条款中规定的通知移除规则?在事实层面,事后生成式人工智能服务提供者能否以合理的成本和较高的准确度移除某些内容应被考虑,法律上不宜对其课以不得再次生成相关内容的义务,但这并不意味着服务提供者不负有任何义务。鉴于民法典第1195条对网络服务提供者提出的是采取“必要措施”的要求,生成式人工智能服务提供者也可能负有对涉嫌侵权的内容采取显著标识等方式来“提醒”用户等义务。这一解释方法是否可行仍有待技术、商业和制度的检验。无论是从侵权过错认定的一般原理,还是从保护受害人权益,抑或从我国将通知移除规则一体适用于各种网络服务提供者类型的传统来看,对生成式人工智能服务提供者课以避免侵权内容再次生成的义务似乎仍在制度设计选择之列。

随着生成式大模型研发与应用的推进,垂类模型的研发也进入热潮,AI for Law的理念与实践获得了关注,在AI for Science之外,让人看到智能巨变的深度与广度。积极推动人工智能安全、监管的国际合作要求更要交叉的研究,以及对于基本实践进行融合技术的底层实证分析。更为重要的是,对基础模型研发与应用的偏见、数据的归属以及风险监管权力现实需求可能催生人工智能国家主权观念。

七、以风险为基础的人工智能治理

人工智能治理与安全保护构成了人工智能法的公法面向。伴随人工智能立法被纳入国务院立法议程,国家层面的人工智能立法采用促进法还是治理法,治理法以何种逻辑展开,成为亟待解决的问题。在这样的背景下,治理入法提上议程,讨论开始增多。

在治理路径上,总体上包容审慎仍是主流态度。钭晓东提出“回应型治理”,从输入端、运算端、存储端、输出端以风险管控、算法透明原则、多层次的数据管理保障机制以及技术、标准与法律三元架构的生成内容治理机制为应对手段。避免过度依赖传统以政府为中心的规制方式,而采取“有效市场”与“有为政府”协同发力、过程合规激励和结果威慑效应齐彰,深度融合法律逻辑、技术逻辑与产业逻辑的双重法律规制理路。同时还需从风险化解和权益保障入手进行责任松绑和规制补强,引入安全港规则及发展保障基金制度。也有学者提出通过监管沙盒实现敏捷型风险治理。安全港制度与沙盒监管具有积极意义,但目前沙盒入法的实践较为分散,且需完善进入沙盒的条件、途径与出沙盒后的制度设计。此外,在智能社会的秩序来源上,上述观点均承认在法律之外技术(标准)作用的发挥。正是由于技术秩序供给作用提升,被规制者本身承担着规制义务,合规即构成了人工智能法的内容,在根本上,这是由法律3.0的基本理念决定的。

在治理思路上,笔者提出基于风险进行治理的思路。以风险为基础的人工智能治理将人工智能系统研发与应用风险的认知作为起点,风险治理与民事责任的沟通作为逻辑终点,如此构建以风险为基础的人工智能法律治理体系。商建刚提出,应当先构建风险治理的元规则,即率先提出其中最基本、最具全局影响的规则为核心,保持多元利益动态平衡:从协同共治、提升透明度、保障数据质量、伦理先行四个角度进行元规则构建。以风险为基础的治理还需要解决如下几个问题,即人工智能风险到底属于什么风险,分级治理是理据为何,落实风险治理的体制机制如何设计,如何处理人工智能风险治理与既有法律规范如产品质量法的关系等。也有学者反对以风险为基础的治理,赵精武指出“新兴风险治理之必要”存在理论不足和逻辑缺陷:这些新风险本质上并没有彻底改变既有的法律关系,同样也没有突破现有法律规范的调整范围。“风险立法论”是否属于当下最佳治理方案仍存疑议。更重要的是,人工智能产业尚处于发展阶段,过早地进行整体性的产业规范可能存在“超前规制”之嫌。不过,目前来看以风险为基础的治理仍是一条务实而理性的路径,不仅由欧盟人工智能法所提出,也被我国深圳经济特区、上海市人工智能产业发展条例所采纳。重提风险理论,提倡风险的评估,在本质上是有效平衡人工智能发展与科学监管的途径。唯一的可议论之处在于是采用风险分级方法还是更为动态的方法。

结语

智能社会的事物本质在根本上决定了人工智能法公私交融的属性,如何认识公私交融的独特内涵在根本上决定着人工智能法的疆域。鉴于智能社会的快速发展,在知识发现上,法学将长期与技术、经济、管理等学科混用基本范畴与方法,“大家都来探险、命名和立法,弄得乱七八糟、纠缠不清”,人工智能法学仍将停留在“包罗万象,无所不涉”的“杂学”阶段。不过,从宏观到中微观研究的转变正在发生。法学的基本价值追求是恒定的,即维护并促进人的行为自由与尊严平等。数字法学如此,人工智能法学也如此。因此,聚焦给定理想、法律及其现实社会后果的可欲性,而不放大何种原则是唯一客观正确的争论,在此实用主义态度基础上展开对话,才能完成对人工智能法调整对象与方法公私融合属性的摄受,进而发现人工智能法之基本法理,厘定其规范外延,深化其规范内涵。

(本文来源于《东方法学》2024年第2期)

专题统筹:秦前松