法制周刊
东方法学特稿|谢琳:人形机器人自主侵权的责任认定
2024-05-15 20:09  点击:29831

作者:谢琳,中山大学法学院副教授、法学博士。

人形机器人是一种仿照人类外形和行动的机器人,集仿生学和机器电控原理于一体。人工智能大模型的出现补全了人形机器人实现能力跃升的技术基础。不同于以往局限于特定领域的模型训练,大模型强大的泛化能力让人形机器人通用性的实现成为可能。未来人形机器人有望被广泛应用于危险作业、工业制造、医疗护理、农业物流、家政服务等领域,解放人类劳动力。2023年10月国家工业和信息化部印发《人形机器人创新发展指导意见》,开宗明义指出:“人形机器人集成人工智能、高端制造、新材料等先进技术,有望成为继计算机、智能手机、新能源汽车后的颠覆性产品,将深刻变革人类生产生活方式,重塑全球产业发展格局。”

人形机器人的自主行为给侵权责任认定带来挑战。在一个人形机器人中,可以集成众多用于感知、导航、控制的人工智能系统,其算法的不可解释性、不可预测性及自适应性使消费者无法获得公平的侵权救济。因此有必要对自主侵权责任认定进行探讨,为人形机器人产业的可信赖发展提供激励相容的清晰指引。

一、人形机器人自主侵权责任认定的挑战和路径选择

随着人工智能系统的纳入,人形机器人能够以“感知—决策—控制”模式进行自主决策行动,其自主侵权风险主要体现为运行过程中因判断不准所造成的物理上的伤害。数据偏差是造成此类伤害的主要原因,如因缺乏低光照环境的典型测试数据而产生识别障碍进而撞伤他人;或对于水果采摘的机器人,若算法训练集中在树上或地面上成熟水果的检测和定位,则有可能因缺乏对旁边的人或物品的判断数据进而造成伤害。

人工智能产品对其运行轨迹的自主决策是基于概率得出的,人类无法解释其逻辑,存在算法黑箱。特别是人形机器人需完成人类各种连续复杂的动作,物理交互频繁且操作因果性多,其算法难度远高于自动驾驶,自主决策更呈现不透明性。因为人工智能产品的自主行为不能为人类所预设,相关研究曾提出应赋予人工智能产品本身的责任主体地位,由其独立承担侵权责任。未来人形机器人具备类人的“大脑”“小脑”和外形,似乎更加有可能获得“电子人”法律主体地位。然而该路径具有一定的不合理性。

首先,实际上与人工智能主体配套的保险金或责任基金等制度仍由背后的受益者产品提供者或使用者所承担,单独设立人工智能主体并无实际意义。此外,设立新责任主体还需配备足够的损害赔偿资金,否则受害人将无法获得充分赔偿,侵权行为的负外部性无法内部化。而常规的资金配置制度均有一定的上限,如创设法人只要满足最低注册资本要求即可,而强制责任险亦有最高赔偿额的限制。

其次,人工智能的不可预测性并不能作为人工智能产品提供者或使用者豁免责任的理由。投入市场的人工智能产品仍应当是可控的,否则将使受害者承担不公平的后果。人形机器人的人工智能系统控制其安全运行,防止其造成他人人身财产损害,属于高风险领域,应遵循安全可控标准。2024年3月13日通过的欧盟人工智能法(以下简称AIA)序言(47)便强调,越来越多的自主机器人,无论是在制造领域还是在个人协助和护理领域,都应该能够在复杂的环境中安全运行并执行其功能,特别是当人工智能系统作为产品的安全组件时,只有安全和符合要求的产品才能进入市场。此外,人形机器人产业还须遵循机械行业相关标准。2023年通过的欧盟机械条例特别回应了人工智能自主性问题,指出自主机械的运行应该是可控的,其自主控制系统不应使机械超出预设的任务和活动空间行动。

最后,要求人类承担责任可促使人形机器人相关责任主体(如提供者或使用者)承担相关保障义务,通过贯穿全生命周期的数据偏差审查、人工监督、风险管理体系、质量管理体系、后市场监测体系等制度协同治理人形机器人风险问题。

欧盟作为曾经的“电子人”主要倡导者也已不再坚持该路径。对此本文认为应通过重构侵权责任认定规则来解决人形机器人的复杂性、不透明性和不可预测性问题。首先,过错标准化,以行政合规义务标准衡量民事侵权的注意义务。过错的标准化能够在有效降低侵权风险的同时提高法律适用的确定性。标准的制定应注意合比例性,不应设立超出各责任主体控制力的合规义务。其次,责任层次化,通过层层递进的方式确立过错及因果关系推定规则。为确保消费者不因人工智能产品的复杂性而承担不合理的风险,可适当加重相关侵权主体的责任,但不宜过度偏离原有的责任类型及认定规则,对此应进行精细化的制度设计。

二、人形机器人提供者的责任认定

在人形机器人致人损害的情形中,人形机器人的提供者和使用者、大模型提供者及外部攻击者(如数据投毒)均有可能是侵权主体。由于发生外部攻击更多是难以追溯攻击者,此时可直接要求人形机器人提供者就未履行网络安全等保障义务承担连带责任,故下文将针对前三种侵权主体的责任认定规则进行层次化构造。

(一)产品责任

对于人形机器人运行过程中造成的人身财产损害,人形机器人提供者(即人形机器人生产者)承担的是产品责任。其中,人工智能系统因控制产品运行,也应纳入产品责任范畴。传统的产品责任法中,产品通常是有形动产(tangible movable item),软件因无形性有可能被归入服务而不受产品责任法的规制。然而软件也可用于控制有形产品的安全运行,产生有形的结果。欧盟专家组报告指出,此类软件达到功能相等的效果,如手机上下载的某一控制软件,应受产品责任规制。2024年3月12日通过的欧盟产品责任指令(以下简称PLD)便将软件纳入规制范畴,其序言(13)指出,操作系统、固件、计算机程序、应用程序或人工智能系统等软件在市场上越来越常见,在产品安全方面发挥着越来越重要的作用,为了法律的稳定性,应明确软件是适用无过错责任的产品。不同于仅提供信息的服务(如仅提供生成式内容或诊疗建议),人形机器人的人工智能系统直接控制产品的物理运行,属产品责任范畴。GPT等生成式大模型纳入人形机器人后,协助其理解人类语言及拆解任务并生成执行方案,同样控制产品运行,也应纳入产品责任加以规制更为合适。故下文将基于产品责任进行制度设计。

产品责任虽为无过错责任,但仍须证明缺陷的存在及缺陷与损害结果之间存在因果关系。关于其举证责任如何分配问题,我国司法实践有两种不同路径,谁主张谁举证或举证责任倒置。在采用举证责任倒置的判例中,法院认为“因受专业技术知识等因素的限制,一般消费者很难及时发现产品缺陷并防止其造成的危险,当发生与产品质量相关的人身或财产损害时,只要生产者不能证明其不存在免责事由,就应当承担损害赔偿责任”。然而并非所有产品都面临举证困境,比如简单产品的缺陷可能是显而易见的,如椅子倒塌。而对于复杂的产品还可以申请专家鉴定。因此不能一概而论地采用举证责任倒置方式,否则将造成产品提供者利益失衡的结果。细究而言,我国对产品责任也并未规定举证责任倒置规则,理应认为举证责任并未倒置。在欧盟产品责任中,受害者同样须证明缺陷及缺陷与损害结果之间存在因果关系(PLD第10.1条)。本文认为,对于举证责任分配,仍应在谁主张谁举证的基础上,再针对人形机器人产品的复杂性进行层层递进的兼顾利益平衡的规则设计。

(二)基于信息披露的缺陷推定

对于复杂的产品,可考虑确立举证责任减轻的相关规则。产品越复杂,生产者和消费者之间的信息不对称性就越大,例如证明药物缺陷可能需要消费者未掌握的专业信息。欧盟PLD评价文件显示,对于复杂的产品,证明缺陷及缺陷与损害之间的因果关系的成本高昂且极其困难,无法举证在消费者败诉原因中占比高达53%。对此,首先可考虑引入信息披露规则。

信息披露是解决信息不对称的有效路径。欧盟人工智能责任指令(以下简称AILD)影响评估指出,当存在提供者、使用者、外部攻击者等多个潜在侵权人时,进行信息记录并披露有助于判别是因为谁的过错造成损害的发生。在复杂的案件中,信息披露规则已被欧盟成员国广泛适用,并由欧洲法院引入。我国也有相关实践,如民法典第1222条规定:“患者在诊疗活动中受到损害,有下列情形之一的,推定医疗机构有过错:……(二)隐匿或者拒绝提供与纠纷有关的病历资料;(三)遗失、伪造、篡改或者违法销毁病历资料。”

欧盟此次PLD修订便确立了相关信息披露规则。第9.1条规定,若原告其提出的事实和证据足以支持其赔偿请求的合理性,则由被告应原告之请求,披露其所掌握的相关证据。第10.2(a)条规定,若被告未依据第9.1条披露相关证据,应推定产品存在缺陷。

信息披露规则也与人工智能的行政合规义务相契合。由于产品的复杂性及提供者与消费者地位的不对称性,行业标准多要求控制产品安全运行的人工智能系统履行信息记录义务。相较于非物质性损害的人格权侵权,人形机器人不当运行所造成的人身财产损害为物质性损害,属高位阶权益,应受到更高程度的保护。依据欧盟AIA,保障人身财产安全的产品安全组件属于高风险人工智能系统,应履行强制性信息记录义务[第6.1(a)条及第12条]。若未进行相应的信息记录,则应承担举证不利的后果[PLD序言(46)]。若信息记录显示,产品提供者未遵循AIA所规定的数据质量、人工监督或网络安全等实质性风险防范要求,则可认定产品存在缺陷。

(三)基于算法黑箱的缺陷及因果关系推定

由于人工智能产品的不可解释性,即便披露信息也可能无法查证被告是否存在过错。首先可依靠风险管理系统等专业化流程,解释缺陷的发生。欧盟AILD提案序言(26)便指出,鉴于在实践中,当被告是人工智能系统提供者时,原告可能很难证明其不合规,因此还应规定将提供者在风险管理系统内采取的步骤和风险管理系统的结果(即是否采取某些风险管理措施)纳入合规认定当中。风险管理系统是AIA要求提供者遵守的强制性规定,旨在降低风险,可以作为评估合规的有效衡量因素。

当然风险管理流程也并不能彻底解决认定困境。有专家便指出,要证明用于开发人工智能系统的数据集或给定系统的准确度水平确实不足,可能并不容易。2023年欧盟数据保护委员会(EDPS)也特别指出,即便被告表面上遵循了AIA所规定的注意义务,自动化决策的操纵、歧视等风险仍然会发生,仍需立法者进一步研究。对此可进行进一步制度设计。

若提供者为仅有的潜在过错方(即使用者不存在过错),可推定产品具有缺陷。欧盟PLD第10.2(c)条便新增规定,原告证明损害是由产品在可合理预见的使用过程中或在通常情况下发生的明显故障所造成的,应推定产品存在缺陷。因为对于明显存在故障的情况,比如玻璃瓶在可合理预见的使用过程中爆炸,缺陷的存在无可争议,所以要求原告证明缺陷是不必要的(PLD序言(46))。就人形机器人而言,物理上的运行故障是显而易见的,只要其在合理运行过程中造成伤害,无论是具体哪个组件存在缺陷,均须承担产品责任。

在难以证明使用者合理运行的情形下,由于人工智能系统的复杂性,可考虑降低证明标准,不要求达到高度盖然性。欧洲法院已设立规则,允许法院在没有决定性证据的情形下,只要可获得的事实证据具有足够说服力,便可推定因果关系存在。如疫苗和多发性硬化症发病之间的因果关系,可从该疾病在注射疫苗后不久出现,并且没有与该疾病相关的家族病史来推断。欧盟PLD第10.4条便新增规定,即使被告披露了证据,但由于技术上和科学上的复杂性,若原告在证明产品缺陷或因果关系或两者上面临过度困难,并已证明缺陷或因果关系或两者很可能存在,法院则应考虑案件所有的相关情况,推定缺陷或因果关系存在。PLD序言(48)进一步指出,机器学习具有技术上的复杂性,原告难以分析数据及解释人工智能系统的内部运行。在涉人工智能系统的赔偿中,原告既不需要解释人工智能系统的具体特点,也不需要解释这些特点如何使因果关系更加难以证明,法院应据此裁定存在过度困难,但应当允许被告对包括存在过度困难在内的所有要件提出反驳。

通过对过错及因果关系推定逐步推进的层次化设计,不再要求过错与因果关系具备一一对应性,可解决人工智能产品的不可解释性问题。

三、大模型提供者的责任认定

在人形机器人产业,大模型赋能可产生飞跃性的技术突破,研发出广泛应用于各种场景的产品。2023年国家工信部《人形机器人创新发展指导意见》便提出“以大模型等人工智能技术突破为引领”的产业发展方向。

大模型又称基础模型或通用模型,通常通过自我监督、无监督或强化学习等各种方法在大量数据上进行大规模训练,显示出显著的通用性和胜任各种不同任务的能力,并可集成到各种下游系统或应用中。当前人形机器人大模型发展的技术难点在于缺乏高质量训练数据。不同于生成式大模型能够从海量公开文本中获得数据训练,人形机器人所需的动作数据难以大量获得,相关技术研究正在攻克难题,比如利用合成数据。目前生成式人工智能大模型产业已形成基于大模型上下游合作的生态,上游大模型开放应用程序接口(API)等供下游软件开发者接入,现已有用于办公、社交文娱、商业营销、家庭助理等场景的软件接入其中。同理,未来人形机器人大模型的引入也将形成上游大模型提供者+下游产品提供者的生态链。为避免重复训练和资源浪费,未来大模型可能会由拥有超高算力、海量数据、高效算法的几家科技巨头或科研机构集中提供。而下游公司则在接入大模型的基础上进一步设计人形机器人产品,如设计上层执行器、运动控制的方案及硬件部件等。可见,大模型提供者本身不一定是人形机器人产品提供者,因此界定其责任认定标准尤为重要。

(一)大模型提供者与人形机器人提供者的责任区分

大模型的出现对已有的过错标准研究带来了新的挑战。欧盟AIA的主要规制思路是以人工智能系统的预期用途划分风险层级,具备通用性的大模型显然无法被直接纳入其中。欧盟2023年6月AIA提案修正案曾对大模型苛以类似高风险人工智能的合规义务,但该路径引发极大争议。

欧盟AIA希望高风险人工智能应达到“安全”“可靠和准确”[序言(47)],技术稳健性是高风险人工智能系统的关键要求[序言(75)],提供者在设计和开发高风险人工智能系统时,应使其达到适当的准确性、稳健性,并在其整个生命周期内始终保持一致(第15条)。而对于已有的生成式大模型,因训练数据的海量性,虚假信息和机器幻觉问题难以完全克服,显然无法达到“可靠准确”标准。若仅因大模型未来可能被用于高风险用途,便要求其达到与潜在高风险用途同等的安全可靠标准,将付出不可估量的成本和代价。对此应采用包容谨慎态度,促进产业发展。有观点便主张,对于生成式大模型的侵权注意义务的判断,可采用现有技术水平标准,若现有技术水平无法控制其输出结果的准确性,生成式模型提供者则不应承担责任。

不同于生成式大模型,人形机器人领域的动作大模型跟物理运行有关,预期的主要用途也大致用于产品安全组件,属于高风险领域,似乎应遵循安全可控标准。然而在构建动作大模型时,仍需在极大程度上扩大模型的数据、参数、算力来提升模型的效果,并通过“暴力美学”以训练GPT的方法来训练人形机器人。训练数据的海量化及模型的复杂化也意味着对数据质量及输出结果准确性的把控难度极大提高。严格要求大模型提供者遵守安全可控的技术标准,可能需要花费巨大的成本。

动作大模型虽然未来很可能用于产品安全组件,但基于模型通用性特点,也有可能用于其他用途,直接作为高风险人工智能加以监管可能会对产业带来寒蝉效应。根据上下游产业模式,人形机器人产品提供者才是真正决定实际用途的一方,大模型提供者实际上无法介入下游的风险把控。上游人形机器人大模型可能无法完全保证在所有应用场景中均安全运行,下游人形机器人提供者则可考虑设计产品在特定的安全环境中运行,比如封闭环境、规划路线或设置运行条件,保证其即便发生故障也不会对相关公众产生损害。同时,下游人形机器人提供者还可以在大模型的基础上进行再训练,通过调整模型参数或使用标注数据训练以适配下游任务,从而保证人形机器人运行的安全性。特别是当大模型采用开源模式,下游产品提供者还可以直接修改源代码和参数进行适配,进一步提高对安全风险的管控力。

因此在法律概念及其相应的保障义务上,应区分大模型提供者和人形机器人提供者。欧盟AIA便尝试通过“用户界面”等方式区分大模型提供者和人工智能系统提供者。其序言(97)在界定合规义务的相应概念中指出,“虽然人工智能模型是人工智能系统的重要组成部分,但其本身并不构成人工智能系统。人工智能模型需要添加更多的组件,例如用户界面,才能成为人工智能系统”。大模型提供者向下游人形机器人开发者提供的库或API访问应视为大模型被集成到人工智能系统中,成为人工智能系统的一部分。而下游人形机器人开发者才属于AIA所规定的“高风险人工智能系统提供者”,因其将大模型用于控制产品安全运行的高风险用途,由其承担一系列高风险人工智能系统的合规义务。同理,在侵权领域,仅提供大模型的提供者并非直接提供产品一方,不应直接适用产品责任中的“安全可控”标准。欧盟立法修订过程中路径变化也支持这一观点。不同于早期对大模型提供者施加类似于高风险合规义务,议会通过的AIA版本不再要求其承担保证数据质量和输出结果准确的一系列高风险合规义务,至于大模型未来的行为守则,则由人工智能办公室联合产业及相关国家主管部门另行制定(第56条)。

(二)大模型提供者的共同侵权责任

目前对于大模型的立法正处于探索阶段,本文认为在未来侵权领域可考虑采用尊重行业发展的做法。若大模型提供者并未直接参与人形机器人的生产,仅提供库或API访问,则由人形机器人提供者承担产品责任,履行产品安全可控的标准。大模型提供者只有在未能履行合理的风险告知和透明度义务时,才视为具有过错,进而承担共同侵权责任。

人形机器人提供者(即高风险人工智能系统提供者)需要充分了解大模型及其功能,才能设计出安全可控的产品并履行相应的安全保障义务。因此大模型提供者需要履行适度的透明度措施,包括起草和不断更新文件,以及提供有关通用人工智能模型的信息,供下游提供者使用[AIA序言(101)]。议会通过的AIA中透明度便是大模型提供者仅有的主要合规义务。在侵权责任中,大模型提供者的过错标准可界定为其是否充分履行了透明度义务。

仅要求透明度的过错标准可为产业发展留下灵活空间。首先通过市场选择,若大模型提供者在风险告知中说明了当前模型技术水平的局限性,那么下游产品提供者有可能选择不采用该模型。而为了使大模型能够有广泛的适用性和盈利性,大模型提供者亦有动力进一步修正模型,提高训练的准确度。该制度设计并不会给大模型提供者留下逃逸法律的缺口。可能会有观点认为,大模型提供者为规避法律责任风险,可以通过另设公司进行产品设计。但人形机器人产品投入市场仍应经过严格的评估流程。如欧盟机械条例便要求,涉及自主行为的安全组件或机械执行安全保障功能,须通过合格性评估后方可投入市场。因此在安全风险方面仍有相关制度予以约束,确保产品安全可控。同时,不要求大模型训练直接达到安全可控的技术标准,可为大模型技术萌芽和演进预留发展空间。大模型的技术改进需要过程,如GPT-4就在GPT-3的基础上降低了虚假信息的风险。

透明度义务可设置为编制并不断更新模型的技术文件,包括其培训和测试过程及其评估结果,列明所需要的要素[AIA第53.1(a)条]。透明度义务的履行标准应达到使人工智能系统的提供者能够很好地了解通用人工智能模型的能力和局限性[AIA第53.1(b)(i)条],并对其所陈述的信息的准确性承担保障义务。若人形机器人提供者在大模型限定的安全范围内设计产品却发生了风险告知以外的损害,则可考虑推定大模型提供者未履行合理的透明度义务,具有过错。因大模型提供者和人形机器人提供者之间存在合作,并非分别实施侵权行为(我国民法典第1171条),而是共同实施侵权行为,应共同承担连带责任(我国民法典第1168条)。

四、人形机器人使用者的责任认定

因人工智能的复杂性,使用者责任问题越发引起重视,不少呼声认为其应该承担过错推定甚至是严格责任。然而通常情况下使用者作为消费者只需承担一般过错责任,立法修改不宜过度偏离原有责任类型,可考虑参照上文所述的人形机器人提供者的过错和因果关系推定规则设立补充性规则。

(一)高度危险使用者的无过错责任

使用者承担严格责任路径因过于严苛而未被欧盟委员会所采纳。欧盟委员会最终沿袭了传统侵权责任的划分标准,建议未来可考虑对“公共场所造成多数人人身财产危险”的专业使用者设立严格责任,譬如现有责任类型中自动驾驶汽车责任便是典型例子。相反,仅在封闭环境下运行的固定的机器人,因其只对特定的少数人存在伤害风险,无需承担严格责任,如智能割草机或智能厨房炉子。对于“公共场所造成多数人人身财产危险”定义,欧盟专家组成员将其概括为危险技术,符合我国高度危险的无过错责任涵盖范围。未来可考虑将从事高度危险作业的人工智能产品使用者纳入其中。

责任的设立须考虑产品的风险画像及运行环境(即是否造成公共场所多数人人身财产危险)及人工智能系统所引起的事故发生率。欧盟委员会建议可分步进行,由于高度危险责任往往需要配置强制责任险制度,可先由保险行业获得充足的精算数据后再将其一并纳入立法考量。

(二)高风险部署者基于信息披露的过错推定

对于高风险专业使用者,可考虑设立信息披露义务。人形机器人使用者若存在损害他人人身财产的可能性,可视为高风险使用者,但应排除个人在非职业活动中使用人工智能系统的情形。

欧盟AIA引入部署者(deployer)概念,首次为专业的高风险使用者设立了强制性行政合规义务。其序言指出,人工智能系统风险也可能来自其使用方式。因此,高风险人工智能系统的部署者在确保基本权利得到保护方面起着至关重要的作用。部署者最了解高风险人工智能系统将如何具体使用,因此能够识别开发阶段未预见的潜在重大风险,因为部署者更准确地了解使用环境、可能受影响的人群或群体,包括弱势群体。鉴于人工智能系统的性质及其使用可能对安全和基本权利造成的风险,包括需要确保适当监测人工智能系统在现实生活中的表现,为部署者规定具体的责任是适当的。

高风险人工智能系统部署者的主要合规义务是采取适当的技术和组织措施,确保按照使用说明使用高风险的人工智能系统(AIA第26.1条)。部署者若对输入数据行使控制权,则应确保输入数据与高风险人工智能系统的预期目的相关并具有充分代表性(AIA第26.4条)。此外,部署者还应指派具备必要能力、培训和权力以及必要支持的自然人进行人工监督(AIA第26.2条),确保机器在其运行过程中不会对公众造成人身财产损害。

部署者若无法履行相应的义务标准,则可视为具有过错。譬如高度自主的清洁机器人的使用说明书列明了传感器需要的气象或照明条件以及安全移动所需的地形条件,那么运行该机器人的公司若使其未能接触充分的数据输入(如光照太低)或将其置于具有损害风险的环境当中(如有许多行人经过的凹凸地面),则违反了相应的注意义务,具有过错。

依据AIA合规义务,高风险部署者应留存该高风险人工智能系统自动生成的日志(AIA第26.6条)。AILD影响评估特别指出,依据AIA规定记录的信息有助于查明过错,如证明其传感器是否已正确清洁。因此,可考虑设立高风险部署者信息披露义务,以缓解举证困境。若高风险人工智能系统部署者拒绝受害者披露其所掌握的相关证据的请求,法院应有权下令要求上述主体披露此类证据。为支持该请求,请求权人必须提供足以证明其损害赔偿索赔合理性的事实和证据(AILD提案第3.1条)。且只有在请求权人已尽一切适当努力从被告处收集相关证据但仍无法获取的情况下,法院方可要求相关主体披露证据(第3.2条)。若被告未遵守法院作出的披露或保全证据令,法院应当推定被告未能尽到注意义务(第3.5条)。

为实现利益平衡,信息披露规则的义务主体可暂限于高风险部署者。一是其他使用者暂无强制性记录义务,未必留存相关信息。二是设置过高的行政合规义务也并不合适。通常情况下消费者并无承担合规义务之必要,欧盟立法曾将“使用者”修改为“部署者”,目的便是与普通使用者拉开界限。那么如何界定“部署者”概念便尤为重要。欧盟AIA第3(4)条将其解释为,“在授权下使用人工智能系统的任何自然人或法人,包括公共机关、机构或其他团体,但在个人非职业活动中使用人工智能系统的情况除外”。根据人工智能系统的类型,该系统的使用可能会影响到部署者以外的人,如为决定是否发放贷款而使用决策系统的银行。在人形机器人领域,可理解为可能对他人造成人身财产损害的专业使用者,如在公开场合使用高度自主清洁机器人的公司。此外,部署者并不局限于公司,欧盟AILD影响评估曾认为,自动驾驶汽车的驾驶员也属于部署者。

(三)基于算法黑箱的过错及因果关系认定

自适应人工智能的出现使其在运行过程中也能持续性自主学习,系统所遵循的算法规则也会根据使用时的输入数据进行调整和改变。自动驾驶汽车领域已采用自适应模式,例如特斯拉数据来源的影子模式。位于车端后台运行的自动驾驶模型将收集其执行输出与驾驶员操作不一致的异常数据用于模型纠偏。在人形机器人领域,自适应机器人同样是未来的发展方向。

自适应人工智能使用者在使用过程中有可能共同参与了人工智能的训练,因人工智能的不可解释性,即便进行信息披露,其输入数据是否错误及是否与损害结果存在因果关系可能难以认定。欧洲议会主张应适用过错及因果关系推定,但因使用者多为普通消费者身份,可能会过于严苛。

1.过错认定

对于是否由使用者承担过错推定责任,欧盟至今尚未达成一致意见,AILD提案也并未制定相关条款。对此,可分情形讨论。

相较而言,不同于算法歧视,物理运行的输入错误实际上较为容易被发现。有观点便指出,因为机器人不应撞伤他人,使用者若正常使用并不会发生损害,反之,非正常使用很容易被发现,比如偏离预设的运行轨迹或撞伤物品。但若是人工智能无人机以最快最经济为目标自主决定送货路线,那么就无人机对某特定区域的延迟送货决定,很难判断是由于该区域居民购买力低而形成算法歧视,还是因为仅仅是送货最有效率的方式而已。再如人工智能人事系统歧视女性应聘者,可能无法发现是因为系统提供者原有的训练数据歧视,还是系统投入使用后面试者的训练数据歧视所造成。

目前人形机器人产业主要致力于动作通用性的突破,属物理运行领域,且人形机器人使用者控制力有逐步减弱的趋势。虽然第一阶段可能仍然需要人工干预和纠偏,此时使用者仍可能参与数据训练;但第二阶段则可能实现完全自主行动,此时使用者不需要进行人工干预和数据输入,则更无需因输入数据错误无法查明而承担过错推定责任。

若未来人形机器人涉及算法歧视决策,我国个人信息保护法也有相关条款加以规制,其第24条第3款规定“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”,侵权时适用的便是个人信息处理的过错推定责任。

2.因果关系推定

在人形机器人使用者参与数据训练的情形下,因人工智能的不可解释性,若提供者和使用者均存在输入数据错误,有可能无法确定哪个错误数据才是造成损害的决定性因素,进而无法确定具体侵权人。此时可考虑适用因果关系推定。

因果关系推定的适用具有制度基础。欧盟专家组报告指出,对于无法确定具体侵权人的情形,各成员国法律多进行因果关系推定,并适用共同责任或分别责任。我国民法典第1170条也规定,二人以上实施危及他人人身、财产安全的行为,其中一人或者数人的行为造成他人损害,不能确定具体侵权人的,行为人应承担连带责任。

为应对算法黑箱,只要原告能证明人工智能系统的输出(或无法输出)导致损害发生,则可考虑不再要求进一步证明被告过错与损害性输出之间存在因果关系(AILD提案第4.1条)。AILD提案第4条还对因果关系推定进行了层次化设计。若高风险使用者未符合使用或监督说明中的要求,或未遵循AIA相关规定,没有在适当的情况下暂停或中断其使用,或输入与系统预期用途无关的数据,法院可考虑适用因果关系推定(第4.3条)。而对于非高风险人工智能系统,因果关系推定仅适用于极其难以证明的情形(第4.5条)。对于个人在非专业活动中使用人工智能的,因果关系推定仅适用于实质性干扰或未依要求保障人工智能系统运行条件的使用情形(第4.6条)。当然,过错与人工智能损害性输出之间的因果关系应存在合理可能性,比如未履行备案等行政手续或违反歧视保障义务则不会产生物理运行损害的结果。

引入因果关系推定规则有利于在总体上提升产品的安全水平。使用者已被认定具有过错,在此基础上再进行因果关系推定并不会对其科以过高的责任,反而能促使其遵循说明正确使用产品,进而提升人工智能产业的整体合规水平,使受人工智能影响的社会公众集体受益。

至于提供者和使用者承担的是连带责任还是按份责任,考虑到使用者的弱势地位,按比例承担按份责任可能更为合适。欧盟专家组报告也指出,现代侵权法至少在某些情形下规定了比例责任,可依据每个潜在侵权人造成损害的可能性减少相应的赔偿数额。就我国高空抛物致害责任而言,也有观点主张应以每位住户造成损害的可能性概率承担比例责任。在人形机器人致害案件中,法院可综合考量案件的所有情况,运用自由裁量权,依概率裁定较为公平的赔偿比例。

(本文来源于《东方法学》2024年第3期)

专题统筹:秦前松