法制周刊
东方法学特稿|宁园:论人形机器人使用者的注意义务
2024-05-11 20:55  点击:25262

作者:宁园,武汉大学法学院特聘副研究员、法学博士。

自2022年,特斯拉发布人形机器人擎天柱以来,人形机器人产业迅速成为热门竞争领域。在我国,人形机器人开发已成为国家新质生产力发展的重要举措,运动控制、环境感知、人机交互等人形机器人核心技术迭代加速。工信部于2023年印发《人形机器人创新发展指导意见》,提出到2025年初步建立人形机器人创新体系,实现人形机器人量产;到2027年形成安全可靠的人形机器人产业链、供应链体系。可以预见,人工智能发展正在向高级形态跃进,“具身智能”时代即将到来。然而,人形机器人的普及与应用,也有可能冲击已有的社会交往安全与秩序,产生新的权益侵害风险。作为人形机器人的直接管控者,使用者是风险分配中的关键角色之一,是否以及如何为使用者设定侵权责任,尤其是是否以及如何为其设置注意义务,将对人形机器人的使用秩序与风险分配格局产生形塑作用,为此,有必要就人形机器人使用者注意义务展开研究。

一、问题的提出

人形机器人是具有类人外形结构特征、运动控制能力、综合感知能力的智能通用机器人。相比传统机器人而言,人形机器人由通用大模型赋能,具备语义理解、多模态感知、自主决策能力,其以尽可能复刻人类外形和行为,实现应用场景从专业向通用的升级为发展目标。从仿照动物再到仿照人类自身,人形机器人具备复刻甚至突破个人部分自然能力的潜能,未来可替代人类完成重复性、高危性和劳动密集型工作,走进制造、医疗、教育、陪护等广泛行业,极大提高经济效率和社会整体福利水平。

人工智能技术迭代升级引发社会变革的同时,也会引发结构性失业、社会关系异化、数字鸿沟等新的问题。具体到私法的治理视角,人形机器人等强人工智能引发的侵权风险无疑将是未来的重要课题。一种妥当的风险分配思路是,为人工智能提供者、智能设备制造者等施加更重的侵权责任,这也是既有研究在人工智能致害责任认定规则设计中呈现出的基本共识。相比之下,另一条风险分配路径——完善人工智能使用者注意义务规则,明确使用者侵权责任认定,则受关注不多,有待深入分析。本文所述使用者,是使用人形机器人从事特定社会活动的终端用户。相比人形机器人制造者和人工智能提供者而言,使用者是人形机器人的直接支配者,当使用者使用人形机器人造成他人损害时,使用者是否应负注意义务以及应负何种注意义务,直接关系到使用者侵权责任的成立与否、受害人损害如何救济等问题。因此,明确使用者的注意义务,是未来人形机器人致害责任认定必须解决的问题。

学界针对智能机器人致害责任议题已有一定讨论。不少学者指出,智能机器人的高度智能化特征,对使用者过错责任、产品责任规则适用提出挑战。使用者责任方面,可能面临使用者过错认定规则不明、对使用者过于严苛等问题;产品责任方面,则面临产品缺陷认定困难、因果关系不明等问题。为此,应对建议主要包括,确立智能机器人主体地位以使其参与责任分配,进一步强化人工智能设备制造者、人工智能设计开发者责任,完善相关保险制度和赔偿基金制度等。相较之下,如何回应使用者过错责任适用的难题,从注意义务角度出发重构使用者过错责任的正当性及其认定规则,则尚无专门探讨。

再从使用者注意义务视角切入。学界就某些特定类型的人工智能使用者之注意义务有一定探讨。如自动驾驶汽车发生事故致害时,驾驶者的接管义务研究;诊疗机器人致害时,医疗机构的合理诊疗义务。上述研究主要关注特定领域使用者的特殊注意义务(主要是作为义务)。然而,与已应用的人工智能不同的是,人形机器人具有通用于全场景的发展潜能,其将在广泛范围内引发社会交往关系的变革。因此,构建人形机器人使用者注意义务还需跳出特定场景、特定的利益博弈关系,探寻一般性规则。本文即以此为研究目标,试图探讨使用者使用人形机器人时应当承担何种注意义务,并从人形机器人使用者注意义务的正当性、注意义务内容和成立要件三个方面搭建使用者注意义务规则体系的一般框架,以期充实人工智能致害风险分配的侵权法工具。

为避免混淆,还需就本文所讨论的侵权情形作出如下限定。本文有关人形机器人使用者注意义务之论述,皆是以使用者指令人形机器人进行活动,致使他人权益遭受侵害为具体语境。其中,行为人是人形机器人的使用者,其可直接支配人形机器人实施某种目的性活动,受害人则是在人形机器人依指令执行任务过程中遭受损害的主体。对于与使用行为无关的损害,如纯粹由人形机器人质量、系统缺陷引发的损害,则不在本文讨论范畴。

二、人形机器人使用者注意义务的正当性证成

使用者对人形机器人的管控,存在支配直接性和有限性的悖论。申言之,使用者是人形机器人的直接占有者,可指令人形机器人活动,是使用危险的直接开启者和受益者,并对该危险具有一定管控力。然而,相比于普通工具而言,使用者对人形机器人的控制力又具有突出的有限性。一方面,人形机器人及其智能系统运行涉及诸多复杂的技术机理,并存在难以解释的技术黑箱,使用者无法实现对人形机器人的完全管控;另一方面,在有限的控制范围内,使用者对人形机器人的支配仍然有赖于人形机器人制造者、人工智能提供者提供必要的辅助。基于这种支配直接性和有限性之间的矛盾,使用者负担注意义务的正当性基础受到挑战,有必要予以阐明。

(一)社会功能:保障智能社会的交往安全

人形机器人等具身智能的使用,将会把人类带入新的生活方式和交往机制中。在这一过程中,社会交往亦将面临新的风险和挑战。为此,通过设置使用者注意义务,可以规范人形机器人使用行为,维护智能社会的交往安全。

人类社会交往的形式及效率,极大程度上取决于生产技术水平。技术变革可以塑造新的社会交往工具和手段,使人类克服时间、空间、语言、文化、自然环境等限制,进而形成社会交往关系新形态。人形机器人的应用,将促成人类交往能力的又一次飞升。一方面,由通用大模型赋能的人形机器人,具有远远超出人的信息收集和处理能力、数据分析能力、创作能力,可帮助使用者突破脑力的限制。另一方面,人形机器人是具有类人化身体结构的高级智能机器,其有能力根据使用者的指令,广泛开展社会交往活动,如开车、购物、陪护、教育等。这种类似使用者“分身”的高级智能体,使人类活动可突破空间、体力甚至主体存在的限制。交往能力的解放,将重塑社会交往关系。于个体而言,人形机器人可增加个人的社会交往场域,丰富社会交往活动。于社会而言,人形机器人以拟人的形式嵌入社会交往,成为社交网络中新的节点,使社会紧密连接于虚实交互、多层次、多领域的普遍交往关系网中。这有助于人类更有效地追求物质利益和精神利益,但同样也会产生新的社会交往风险。

可以预见的风险涉及以下方面。首先,使用者使用人形机器人实施侵权行为的风险增加。强人工智能既可以是增加个人福利的积极助手,也可以是实施侵权行为的邪恶工具。从目前人工智能应用失范的实践来看,未来亦会产生使用者滥用人形机器人实施侵权行为的风险,且相比传统机器人,人形机器人滥用风险有进一步增加之可能,主要原因有两个方面:一方面,人形机器人具有类人外形,可直接在适于人类活动的环境中运行,无需另外为其搭建专门的工作环境,由此,具有“人形”的机器人相比非类人的机器人而言,普及成本更低、应用场景更广。另一方面,人形机器人具有类人的视觉、听觉能力和思维方式,同时具有超出人类个体的数据处理、分析和决策能力,使用者可直接通过自然语言指令机器人,并借助其完成仅凭个人体力、脑力难以实现之目标活动。因此,人形机器人可更广泛、更深入地服务于人的社会活动,而于消极层面,这客观上将增加人形机器人滥用风险。其次,相比无人形机器人辅助的一般主体而言,使用者很可能借助人形机器人的数据分析与决策能力,在现实交往中取得对一般主体的支配地位,从而产生歧视、操控等风险。除滥用风险外,人形机器人亦存在失控风险,可能造成他人损害。人形机器人具备自主学习能力,可以成为辅助个人活动的能动工具,但也可能产生难以预料和解释的决策结果,造成他人权益受损。

设置人形机器人使用者注意义务,是有效应对前述风险的必要法律手段。总体而言,注意义务对使用者提出谨慎行为的要求,具有维护智能社会安全秩序的显著作用。具体而言,其一,使用者注意义务可以防范人形机器人滥用风险。人形机器人运行以使用者指令为整体指引,使用者是目标行为所涉危险的开启者和受益者,要求使用者对其发出的指令内容,以及人形机器人执行指令的过程尽必要之注意,可以有效规范使用者的机器人使用行为,防止因指令内容和执行不当侵害他人权益。其二,使用者注意义务亦为防范人形机器人失控风险的必要手段。由于人形机器人处在使用者的直接管控下(包括物理接触式管控和远程管控),人形机器人存在失控风险时,使用者仍有采取措施预防风险发生的可能,如关闭系统、暂停运行等。此外,失控原因不具有可解释性,并不意味着失控本身绝对不可预见、不可避免,在使用者的注意能力范围内,要求使用者对人形机器人工作过程保持合理警觉并尽必要接管义务,是及时阻断失控风险的有效手段。其三,人形机器人制造者、人工智能提供者责任,并不能替代使用者责任对使用风险的防范功能。制造者、提供者责任可有效预防人形机器人产品缺陷、算法缺陷引发的侵权风险,但对缘于使用者指令和操作的使用风险,使用者基于直接支配地位在风险控制上具有效率优势。因此,相比制造者和提供者责任而言,使用者责任是使用风险的首道防线,完全排除使用者责任,使用行为不受约束,则使用风险的事前预防机制将被过分削弱。

(二)伦理功能:维系人的主体性认同和共同体认同

人形机器人应用可能引发主体性危机和共同体危机。人工智能是人类智能的外化,是人进行社会交往的工具和客体。然而,人形机器人普遍地介入社会活动,则可能产生客体主体化倾向。申言之,人类为获取物质或精神利益,易对人形机器人产生智能依赖,以人形机器人替代自己行为和决策,并受该决策支配。长此以往,人的主体性地位将遭到削弱,一方面,随着人形机器人越来越频繁地以人的地位介入社会关系,人的主体性将被遮蔽,人的社会交往能力将被弱化;另一方面,个体及其所处社会关系将被人形机器人背后的算法所裹挟,更易遭受算法歧视、算法操纵等技术风险的侵扰,走向社会不平等与单向度。除此之外,人形机器人等强智能技术的普及,还可能造成人与人之间的紧密关联逐渐淡化为以机器人为节点的间接关联。由此,现实交往被虚拟交往替代,个体之间逐渐疏离,个人的共同体认同趋于弱化,传统伦理规范和法律规范的约束力亦会随之减弱,进而增加违法风险。

面对前述交往异化风险,保持个人的主体性地位,并结成相互关照、相互尊重的紧密共同体,才能使智能技术朝着符合人类根本利益的方向发展。在这个意义上,要求使用者承担注意义务亦具有必要性。一方面,为使用者设置注意义务,可督促个人维系自身主体地位。使用者注意义务可强化人形机器人的工具属性,督促使用者正视人形机器人的风险,强化使用者与人形机器人的“主体—客体”结构。另一方面,注意义务要求使用者尊重他人利益,可以防止人形机器人遮蔽人与人之间的社会关联。总而言之,使用者注意义务既强化了使用者的主体性认同,避免其完全委身于机器;也督促个人在使用人形机器人时,关照共同体成员的利益。由此,每个使用者既受到注意义务的限制,也因其他使用者负有注意义务而获得保护,从而形成共同应对技术风险、重塑安全秩序的合作局面。

(三)规范功能层面:实现利益衡平的弹性机制

使用者侵权责任的认定,涉及使用风险在使用者和受害人之间的分配,需要处理好确保人形机器人运行安全,促进人形机器人技术发展与应用两项目标之间的关系。显然,二者之间存在张力,使用者责任范畴扩张,则受害人利益及其背后的安全价值可得到更强保护;使用者责任范畴限缩,则更有利于人形机器人普及和应用。使用者责任的设置,需使二者达致平衡。然而,如何处理安全和发展之间的关系,或者说需要达成何种平衡,则同时受技术发展阶段、技术风险程度等多重因素的影响。从纵向层面看,在技术成长期,社会政策往往偏重于支持技术发展;而进入技术发展的成熟期甚至衰退期,技术的法律规制则成为重点。从横向层面看,技术于不同应用领域将呈现不同的风险水平,风险程度高低与风险控制强弱成正比,风险程度越高,相关技术应用则会受到更严格的法律限制。

为回应不同的利益衡量需要,使用者侵权责任需具有充足的制度弹性,而注意义务规则可作为使用者侵权责任范围的控制器。法律可基于技术发展的不同阶段、技术应用的不同风险程度等,调高或调低使用者的注意标准,为使用者设置更高或者更低的注意义务,由此限缩或扩张使用者的侵权责任范畴,以实现不同的利益衡量需求,适时传导社会政策。显然,注意标准的动态调整并非依个案进行,而是针对技术发展的不同阶段、不同应用领域,确定相应的利益衡量目标,进而设置相应注意标准。例如,在人形机器人技术成长期,成熟的操作经验和操作规范往往尚未形成,使用者的注意能力应维持在较低标准,使用致害风险可主要分配给人形机器人制造者、人工智能提供者,或通过保险制度等保障机制实现损害的社会化分担;进入技术应用成熟期,使用者应掌握基本的操作规范,具备较高的操作能力,此时应适用更高的注意能力标准。此外,在风险程度更高的应用领域,使用者客观上更可能预见损害发生的危险,应具有更高的注意能力,承担更高的注意义务。

有关正当性的证成,还需回应的一个问题是,人形机器人具有自主学习能力,并在数据处理、分析和决策方面超出使用者的自然能力,这是否会导致使用者控制人形机器人本身成为伪命题,进而动摇使用者注意义务的实践基础。应当认为,人形机器人的高级智能并不会推翻使用者注意义务的正当性。具体而言,人形机器人对使用者的实质意义是,延伸使用者的活动范围,增强使用者的活动能力。诚然,相比其他工具而言,人形机器人具有更优的辅助作用,但所谓学习与决策的“自主”,是指人形机器人的分析与决策掺杂了一定的“能动性”,其不再完全由人决定,但这也远未达到完全由其自主决定而无需人介入的程度。人形机器人无论如何智能,都难以具备人的独立性和自主性,其自主学习与决策仍整体遵从使用者的指令,人形机器人何时开启、何时停止以及从事何种目的性活动受使用者管控。另外,尽管人形机器人基于自主学习作出的决策可能超出使用者的预见范围,不具有可解释性,但这亦不妨碍使用者在其支配能力范围内承担注意义务,而对于因人形机器人自主决策引起的、超出使用者预见能力的损害,使用者不负担注意义务,侵权责任可由人形机器人制造者、人工智能提供者承担。

综上,使用者注意义务规则设置可预防人形机器人滥用风险和失控风险,并有利于督促使用者在人形机器人使用中保持自身的主体地位,尊重和保护其他共同体成员的利益,负责任地使用人形机器人。除此之外,使用者注意义务还可作为社会政策的传导工具,适时调整使用者侵权责任的范畴,以契合技术发展不同阶段、不同应用领域的利益衡平目标。

三、人形机器人使用者注意义务规则

抽象意义上,所有使用者在使用人形机器人时都应尽必要之注意。然而,由于使用者对人形机器人的支配能力受限,仍需从注意义务的内容、成立要件和注意义务的免除情形三个方面,就使用者注意义务进行限定,以避免使用者承担过重的侵权责任。

(一)使用者注意义务的内容

使用者使用人形机器人的行为过程可分解为三个阶段,一是使用者作出指令,二是机器人接收指令,三是机器人执行指令、实施目标行为。在整个过程中,使用者的义务可分为合理指令义务、合理操作义务、合理的过程管理义务,具体分述如下。需说明的是,本文是就使用者注意义务所作的初步设想,具体内容还留待人形机器人推广、人机交互规范和机器人操作规范细化后,进行补充和修正。

1.合理指令义务

指令合理是指,使用者的指令内容应当合法、正当、明确,避免人形机器人依照指令进行的活动可能造成他人权益受到危险或损害。合理指令义务的功能是,约束使用者的指令行为,使其不得指令人形机器人实施可能侵害他人权益的行为,防范人形机器人滥用风险。

人形机器人活动受使用者指令内容的支配,因此,指令合理的核心要素是指令内容合理。具体来看,指令内容既包括对目标的指令,亦即使用者指令人形机器人所欲完成的目标活动之内容;还包括对人形机器人活动过程的指令,亦即使用者就人形机器人实施目标活动的过程规则作出指令,如使用者基于目标活动为人形机器人设置相应参数、选取分析模型、进行价值对齐等。

依指令内容的分类,合理指令义务则涉及确保目标指令合理的义务、确保过程指令合理的义务。目标指令合理是指,使用者的目标指令不应包含侵害他人权益的内容,若指令的目标内容所指向的目标行为通常都会导致他人受到危险或损害,则使用者应避免作出相应目标指令。过程指令合理是指,使用者对人形机器人运行过程的指令不应导致人形机器人侵害他人权益,若使用者通过参数设置、模型设置为人形机器人指定的活动规则通常会导致他人受到危险或损害,则使用者有避免作出相应过程指令,正确设置参数和模型的义务。

从义务来源来看,合理指令义务既包括法定义务,也包括非法定义务。就法定义务而言,由于人形机器人是使用者的活动工具,指令内容即为使用者目标行为的内容,因此法律对使用者施加的行为规范,可直接作为法定的合理指令义务之依据。例如,我国民法典第1024条规定,任何人不得以侮辱、诽谤方式侵害他人名誉权;相应地,行为人不得指令人形机器人制作并传播侮辱、诽谤他人的图片、文字、视频等。除此之外,人形机器人运行可能包含深度合成、生成式人工智能等技术应用,我国立法在深度合成服务、生成式人工智能领域对使用者施加的义务,亦应适用于人形机器人使用者,约束其指令行为。如《互联网信息服务深度合成管理规定》规定使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息,不得采用技术手段删除、篡改、隐匿深度合成标识。人形机器人使用者即应尽前述义务,不得发出前述指令。此外,人形机器人具有信息处理能力,使用者在使用人形机器人时可能处于信息处理者地位,须遵循个人信息保护法,确保个人信息处理取得个人同意或者满足其他合法事由,并履行安全保障义务以及其他个人信息处理者应尽之义务。需说明的是,使用者指令人形机器人处理个人信息时,使用者与人工智能提供者之间并不构成委托关系,实际进行信息处理操作的人工智能提供者不能主张其为个人信息处理受托人,仅承担协助处理义务和较低水平的信息安全保障义务。原因在于,一方面使用者和人工智能提供者之间并未达成委托合同;另一方面,在处理过程中,使用者仅发出目标指令,影响信息处理目标,而如何处理个人信息、处理哪些个人信息仍由人工智能提供者主导,二者应同为个人信息处理者,均须承担处理者义务。

未来,随着人形机器人应用实践发展,立法还须完善人机交互规范,细化使用者的合理指令义务。此外,除法定义务,使用者在发出指令时还可能负担非法定注意义务。此类义务并非由法律规范直接施加给使用者,有待法官在案件中依注意义务的成立要件作具体认定。

2.合理操作义务

合理操作义务,是指使用者的操作行为应符合操作规范,避免人形机器人在执行指令过程中发生不合理的物理故障、系统故障、信息安全故障或者其他可能造成他人损害的故障。与合理指令义务不同,合理操作义务要求使用者谨慎操作机器人,前者关注“用人形机器人做什么”,后者关注“怎么用人形机器人”。

人形机器人要成功模拟人类自主活动,需要运动规划与控制(包括控制位置、姿态、速度、轨迹、力量等)、计算机感知(包括视觉、听觉、触觉以及自身状态测量)、自主学习和决策(包括语义理解、语音合成等)以及信息处理、算法分析等技术协同工作。人形机器人安全运行有赖于人形机器人制造者、人工智能提供者执行安全标准、落实安全测试、履行安全保障义务,但使用者的不当操作也可能诱发安全隐患。为此,使用者作为直接操作者,应当承担合理操作义务。换言之,若实施或者不实施某种操作行为通常会导致人形机器人故障,进而使他人权益遭受危险或损害,则使用者对应地负有不实施或者实施某种操作的注意义务。

参考我国现有机器人安全标准,未来人形机器人安全运行至少需确保机械安全、电气安全、控制系统安全、信息安全。为此,使用者合理操作义务可从以下四个方面设置:一是,机械安全,主要是确保人形机器人肢体结构的稳定、完整。具体要求包括,使用者不应破坏人形机器人肢体结构(如拆除主体结构),不应破坏人形机器人防护措施(如拆除防护装置、暴露机器人肢体尖锐部位)。二是,电气安全,主要是使用者应确保人形机器人运行的电气环境安全,不应破坏人形机器人的电气防护装置。三是,控制系统安全,主要是确保人形机器人运动控制、力控制等的安全。由于控制系统安全通常由机器人肢体质量和支撑性技术的可靠程度决定,因此该领域所涉的安全保障义务应主要由人形机器人制造者承担。四是,信息安全,主要涉及个人信息安全和数据安全。数据处理是人形机器人实现综合感知、完成自主学习与决策的必要支撑,在执行指令过程中,人形机器人很可能收集并储存了大量个人信息和数据,此时,使用者应履行个人信息安全与数据安全保护义务,不得泄露个人信息和存在安全风险的数据。前述义务主要为不作为义务,即使用者不应实施明显破坏机器人运行安全的操作行为。除此之外,当人形机器人存在危及运行安全的重大缺陷时,使用者还具有停止使用、及时检修的义务。

3.合理的过程管理义务

合理的过程管理义务是指,使用者在人形机器人执行指令过程中,对人形机器人的运行状态仍须保持警觉,并在必要时予以接管的义务。合理的过程管理义务是一种持续性义务,且主要为作为义务,其要求使用者在人形机器人运行过程中,维持对人形机器人的基本控制力,以便在必要时采取措施防止损害发生。就过程管理义务的内容而言,具体包括过程监控义务和必要接管义务。过程监控义务要求使用者持续观察人形机器人运行状况,监控程度以能够及时接收警示信息为最低限度。必要接管义务则是指,使用者在必要时采取紧急措施,使人形机器人停止运行,或者恢复到安全状态。

由于合理的过程管理义务对使用者提出了更高的注意要求,有必要就其正当性再作补充。首先,合理过程管理义务是应对人形机器人失控风险的重要手段。如前所述,在人形机器人失控情形下,相比人形机器人制造者和人工智能提供者,使用者与风险最为邻近,在条件具备时可快速实现对人形机器人的控制,避免损害发生。此时,合理的过程管理义务可与制造者、提供者之义务形成规范上的合力,强化侵权责任制度在失控风险防范方面的积极作用。其次,合理的过程管理义务并非要求使用者对人形机器人实现全过程的深度监管,其需满足义务必要性、损害可预见性和损害可回避性要件,只有当人形机器人即将或者已经失控,人形机器人发出警示并提供接管手段,不及时接管即可能导致损害发生时,使用者才承担合理接管义务,须在支配能力范围内实施必要措施。诚然,合理的过程管理义务将减损使用者的使用便利,但减损程度并不足以推翻合理管理义务的正当性,人形机器人所带来的个人便利、社会红利远远大于过程管理义务所生负担,后者不足以从根本上抑制人形机器人的使用。

(二)使用者注意义务的成立要件

前文仅就使用者注意义务的内容作类型化梳理,尚未涉及注意义务的成立问题。应当认为,并非在任何损害发生情形下,使用者一概承担注意义务。在侵权责任认定中,前述义务只有经注意义务的成立要件检验,才可能触发使用者侵权责任。使用者注意义务的成立,则须满足必要性、可预见性、可避免性三个要件。

必要性是指,使用者所负注意义务必须是可以避免危险或损害发生的手段,即通常意义上,使用者尽到该注意义务可以避免危险或者损害发生。反之,假设使用者即使履行该义务,也不能避免危险或损害发生,则相关义务并不构成使用者的注意义务。必要性要件将不具有损害结果回避功能的义务排除在注意义务范畴之外,防止使用者侵权责任范畴过宽。例如,使用者虽未能定期检修人形机器人,但人形机器人使用致害乃黑客攻击所致,即使使用者定期检修亦不能避免损害发生,由于定期检修义务未能满足必要性要件,并不构成使用者的注意义务,使用者违反定期检修义务不具有侵权法上的违法性,亦不能认定使用者有过错。

可预见性是指,使用者可预见到不履行义务将发生危险或损害。可预见性对于注意义务成立的判定意义表现为,使用者应当履行符合其预见能力的注意义务,但无需履行超出其预见能力的注意义务。该要件的认定需从以下两个方面进行考虑。

其一,预见能力基准。可预见性的判定并非以某个具体使用者的预见能力为基准,而是以理性使用者的预见能力为客观基准。从这个意义上说,注意义务是一种应然意义上的预见义务,其要求使用者具备理性使用者所具备的预见能力,并履行与该能力相匹配的注意义务;使用者对自身预见能力的不当降低或者丧失负有责任,亦对未能尽相应义务负有责任。其中,理性使用者的预见能力包含三个层面。一是具备一般的知识与经验,理性使用者首先是一般理性人。二是具备人形机器人操作所需的一般知识与技巧。随着人形机器人技术发展、应用普及、操作规范完善,此一能力标准亦有提高之趋势。三是具有实施目标行为所要求的知识和能力。若使用者指令人形机器人从事专业活动(如诊疗活动),使用者亦需具备对应领域所必要的专业知识、经验和能力。可见,相比日常生活中的一般理性人而言,理性使用者的注意能力标准更高。

其二,预见可能性的考察,即判定使用者“是否可能预见”损害或危险发生,需综合考量以下因素。一是,机器人活动的风险程度。此一要素是对抽象风险的考察,即对机器人活动(包括机器人自身运行和目标行为)致害的风险程度进行一般性评估,不涉及对具体危险的预见。抽象风险主要受机器人作业环境、目标行为风险程度的影响。通常,机器人活动的抽象风险程度越高,预见可能性越高,使用者亦须负担更高程度的注意义务。例如,机器人作业环境复杂(如天气恶劣、高温高压),或目标行为的风险程度较高时(如驾驶汽车、从事诊疗活动等),则使用者须负注意程度更高的合理操作义务、过程管理义务。二是,损害发生之盖然性程度。此一要素意在考察具体危险在多大程度上可以转化为损害。通常而言,危险越具体,损害发生的盖然性程度越高,使用者越可能预见损害发生。例如,当人形机器人避障功能失灵、发出警示,且即将倒向受害人时,此种危险已经足够具体,应认定为满足可预见性标准。

就不作为义务而言,使用者可预见损害或危险发生时,不作为(即停止行为)即可避免损害发生。就作为义务而言,使用者为避免损害发生需要采取积极的预防措施,此时,注意义务的成立还涉及可避免性的考察。可避免性是指避免损害发生的可能性,其关注的是使用者是否有能力实施避免损害发生所需的预防措施。可避免性对于注意义务成立的判定意义表现为,法律要求使用者在避免能力范围内采取预防措施,但若预防措施超出避免能力,即使使用者可以预见损害,也不负结果回避之注意义务。

可避免性认定涉及避免能力基准和避免可能性的判定。在避免能力基准上,同预见能力基准相似,使用者需具备理性使用者所具有的采取合理预防措施的能力,具体包括从事日常社会交往所需的、使用机器人所需的以及从事目标行为所需的避免损害发生之能力。避免可能性的判定,本质上是考察使用者是否有能力实施合理预防措施,即理性使用者所具有的结果回避能力是否足以预防即将发生的损害,需结合以下因素综合认定。一是,机器人活动的风险程度。若机器人活动的风险程度更高,则使用者除面临更高的预见义务外,也需承担更高的结果回避义务。概言之,机器人活动越危险,使用者注意义务越重。二是,受损利益的重要程度。对于重要利益,法律往往会设置更高的结果回避义务。因此,若人形机器人可能损害他人的重要权益(如物质性人格权),使用者则应具备更高的结果回避能力。三是,结果回避义务对使用者造成的利益减损程度。结果回避义务主要是采取措施避免损害的作为义务,其要求使用者负担一定的预防成本,因此结果回避义务的设置还需考量成本—效益因素,原则上,不应要求使用者承担成本过高的结果回避义务。

(三)使用者注意义务的免除情形

如前所述,由于存在技术壁垒,使用者普遍且客观地处于信息不完全状态,不具有支配人形机器人所需的全部信息,其对人形机器人的支配和管理往往以人形机器人制造者、人工智能提供者进行操作提示与提供操作手段为前提。申言之,使用者的支配力受制于制造者、提供者提供的辅助信息与辅助手段。基于此,应将制造者、提供者未履行必要的辅助性义务,作为使用者相应注意义务的排除情形。若制造者、提供者未能尽到辅助性义务,则应免除使用者的注意义务。其中,辅助性义务是指辅助使用者及时避免损害发生的义务。依辅助内容之不同,辅助性义务又可分为:提供辅助信息义务、提供辅助手段义务和辅助更新义务。提供辅助信息,即人形机器人制造者、人工智能提供者应充分告知使用者正确的操作规范,并在使用者指令、操作明显不当,或者损害即将发生时发出明示性警示。提供辅助手段,即制造者、提供者应为使用者提供必要的避免损害发生的手段和方法(如设置急停装置)。辅助更新义务是指,制造者、提供者应及时提示使用者更新人形机器人系统和功能,并提供相应的更新操作指示和路径。制造者、提供者未能履行必要辅助义务的,则免除使用者注意义务。免除情形的适用则需满足两个要件。一是,使用者避免损害发生,以制造者、提供者提供辅助信息、辅助手段,提示并指引系统更新、功能更新为必要;二是,制造者、提供者未尽到及时告知和警示义务,或未尽到提供预防手段、提示并引导系统、功能更新等辅助性义务。一旦免除事由成立,则应认定使用者不负有注意义务,亦无需承担侵权责任。

以人形机器人制造者和人工智能提供者未履行必要辅助义务,作为使用者注意义务的免除事由,具有妥当性。其一,使用者对人形机器人的支配力有限,注意义务程度理应以其支配能力为基本限度,以避免对使用者施加严格责任。其二,制造者、提供者掌握人形机器人运行所需的核心技术,有能力为使用者支配和管控人形机器人提供技术和设备支持;且使用者亦有合理理由期待并信赖制造者、提供者周全考虑人形机器人使用中的潜在风险,并辅助其预防和控制风险。其三,必要辅助义务实际上要求制造者、提供者对使用者的不合理指令和不合理操作及其可能引发的损害负担一定的预见与避免义务,这有助于引导制造者、提供者重视风险预测和风险警示,完善风险防范方案,进而达到降低人形机器人使用风险,提升使用者操作水平的效果。需说明的是,该免除事由不可倒推适用,即不能依据制造者、提供者已经履行必要辅助义务,推定使用者未尽到注意义务,使用者是否存在注意义务,仍需结合前述标准作出判定。

综上,人形机器人的注意义务类型涉及合理指令义务、合理操作义务和过程管理义务。在具体侵权情形中是否成立注意义务,需满足必要性、可预见性和可避免性三个要件。此外,当人形机器人制造者、人工智能提供者未能履行必要辅助义务,以致使用者难以预防损害发生时,则应免除使用者的注意义务,责任应由未尽到相应辅助义务的制造者、提供者承担。为便于读者理解,本文以图1展示使用者注意义务之内容及其认定过程。

1715432320138664.png

图1 使用者注意义务的认定过程

(本文来源于《东方法学》2024年第3期)

专题统筹:秦前松