法制周刊
东方法学特稿|孙山:论人形机器人的法律地位
2024-05-11 20:44  点击:27085

作者:孙山,西南政法大学民商法学院副教授、法学博士。

融合人工智能、大数据、算法的机器人,无疑是下一个处于风口的产业。纵观诸多机器人类型,人形机器人是其中最引人注目且最能引发新思考的。人形机器人既具有机器人的共有特征,也会因其类人的外形和深度介入人类家庭生活而产生需要特别注意的技术、伦理与法律问题。类人外形的具身存在和以涌现方式生成的决策、内容,工具的先天定位与人类情感的后天投射,这些特征都推动着我们去思考人形机器人规制的元问题:人形机器人的法律地位。摆在人类面前的三个选项分别是:紧跟技术的变化,直接承认人形机器人的主体地位;固守人类本位,坚持作为工具的对象定位;采取折中态度,有限度地承认其主体地位。完成初步选择之后,我们还需在制度层面实现相应的法律地位,升华现有的法学理论与法律规范体系,使之更加公平有效有弹性,紧跟数字时代的飞速发展。

受限于产业本身的发展水平与年限,国内外对于人形机器人法律地位及其实现的研究较少。在当下及可以预见的未来,人工智能都是机器人运行的基础技术框架,一些学者并不严格区分人工智能体和机器人,机器人可以被视为人工智能的具身,目前人工智能法律问题的种种讨论,同样适用于包括人形机器人在内的所有类型机器人。类人外形的具身存在是人形机器人有别于传统机器人的特殊之处,基于涌现的决策与内容生成方式是人形机器人与人类之间关系剪不断理还乱的现实基础,人形机器人法律地位的明确,也应从这两点入手,而以往的研究大都对此忽略,或阐述不够。本文从具身和涌现所引发的问题入手,通过梳理机器人发展的历史与现状,发掘民事主体变迁背后的考量因素,秉持人类中心主义的立场,论证人形机器人只能确定为法律对象而非法律主体的核心观点。

一、具身与涌现:人形机器人运行的现象解读

人形机器人运行中会产生诸多由技术应用而引发的法律问题,而这些法律问题的根源,是具身和涌现。美国学者莱恩·卡洛(Ryan Calo)认为,机器人技术与互联网存在着显著差异,由此导致一系列新的法律问题,这些差异主要体现为:机器人技术首次通过具身的方式,将数据的混杂性和造成身体伤害的能力结合在一起;机器人系统以无法预测的方式,也就是涌现的方式完成任务;机器人模糊了人与工具之间的界限。具身与涌现,是人形机器人所引发种种法律问题的事实基础,自然成为我们在确立人形机器人法律地位时必须慎重对待的现象。

(一)具身:人形机器人深度介入人类生活的起点

以类人的造型实现具身是人形机器人有别于普通机器人的最明显差异。首先需要声明的是,本文所研究的机器人,是以具身的方式存在于物理世界中的机器人,不包括存在于计算机中的“软件仿真程序机器人”。所谓具身,是指以各类机械装置作为其存在的实体,将各项程序功能具体化为各类可执行指令的机械装置。而人形机器人,是指总体造型上接近于人类外形的机器人。机器人已经在人类社会生活和家庭生活中被广泛应用,存在形态多种多样,但多数机器人都没有以人形的方式出现。实际上,类人造型会增加设计、制造成本,只有那些用于处理看护和私密事务的机器人,才有必要设计成类人的造型,以提升人类对机器人的接纳度。工业机器人、特种机器人等根本不需要设计成类人的造型,本文对于这两类机器人所引发的法律问题不作讨论。就整体轮廓和造型而言,我们还是可以将人形机器人与普通机器人区分开来,类人的造型是其区别于普通机器人的最明显差异,而这种差异又引发了一系列法律问题。

具身是机器人深度介入人类生活的开始。不同于人类以往使用的各项技术发明,机器人的侵入性更强,传感器、网络互联与算法是机器人侵入人类生活的技术基础,我们面临着时刻被窥探、被记录、被画像的风险。第一,机器人会主动搜集、传输各类信息。以往的各项技术发明,不具备主动搜集信息并向外传输的能力,只是一个单纯的工具。人形机器人的“侵入性”主要体现在信息的主动搜集和传输,私人住宅也成为大数据获取的场景,与互联网相连接使得信息可能被不间断传输到云端,隐私信息有成为公开信息的危险。不止于此,由于隐私边界的逐渐淡化,个人的自由空间被进一步压缩。第二,机器人集合了多项核心技术,可以完成对使用人的画像,变相放大了侵入性。在互联网技术的加持下,平台电脑、智能手机等移动终端也可以搜集和传输信息,侵入人类的社会生活与家庭生活。算法的应用给平台运营商赋能,平台运营商可以从获得的海量数据中抽取有用的信息,但这些海量数据并不包含网络用户在家庭生活中的具体信息。机器人的具身存在比任何平板电脑、智能手机或传感器更具侵入性,借助算法,使用人的生活习惯、性格特点、个人偏好等也被生产厂商了解。功能越强,威胁自然也就越大。

具身使得机器人不但进入人类的家庭生活,更影响到人类的社会生活。机器人已经渗透到人类生活的方方面面,这种变化使得我们不得不直面机器人所带来的社会影响。具身的机器人对人类生活的影响主要有:第一,身体层面的物理伤害。具身的实体存在不可避免地给人类带来了伤害和与之相伴生的责任承担问题,走进家庭的人形机器人将伤害从工厂延伸到了住宅。第二,心理层面的隐私破坏。通常情形下,人形机器人可以自由进出家庭中的每个房间。在缺少法律规制的情况下,走进家庭的人形机器人会持续搜集用户的隐私信息,最终会对隐私权造成破坏性的影响。第三,数据领域公共安全的多方威胁。如果机器人搜集信息的行为不受任何限制,那么可以想象,平台之外还会出现滥用他人隐私信息的其他主体,包括但不限于企业、个人和政府。当我们每个人都因隐私的公开而变成透明人之时,以住宅为边界建构的私人领域将不复存在,数据领域的公共安全也就名存实亡了。

人形机器人具身进一步激发了人类承认人形机器人主体资格的想象。外形上的相似性会让我们产生共情,而共情就是人形机器人主体资格想象的道德起点。国外有学者认为,相比于以往任何技术,外形上的相似使得机器人对人类具有更大程度的社会效价,机器人的地位介于人和对象之间。相比于陪伴、共生时间更久的某些家养动物,一些人更倾向于将人形机器人视作下一个可以平等对待的主体。尽管某些家养动物在情感上与人类有更紧密的联系,但迄今为止世界各国都没有出现将其他动物当作法律主体加以特别保护的系统立法,至多强调其他动物是特别的权利客体,否定虐杀等违背人类道德共识的行为。归根到底,还是出于人类的情感需求而保护其他动物。类人的具身和交流能力则让我们产生将人形机器人视为同类的冲动,而这种冲动又随着技术的进步逐步演变为持续的诉求。

(二)涌现:人形机器人决策形成的另类逻辑

涌现是使用人工智能技术的人形机器人相应决策形成的逻辑。涌现,是对英文“emergence”的翻译。涌现作为科学术语最早由著名物理学家菲利普·安德森于1972年使用,他认为涌现是一种在较小模型中不存在但会出现于较大模型中的能力。涌现给我们揭示了这样一种效应:当个体数量达到一定规模时会产生一种群体现象,群体现象无法从原来的个体现象中推导出来,复杂的物理系统可能表现出的行为不能仅根据控制其微观成分的定律来理解。涌现是人工智能,特别是大模型应用中的一个常见现象。内置了人工智能后,人形机器人运行中也会出现涌现现象。从诞生之初,机器人就能按照程序给定的指令完成一定任务。不过,长期以来机器人只能严格执行指定的任务,当外界环境发生变化时,机器人无法随机应变。随着人工智能、大数据等配套技术的迅猛发展,机器人也逐渐具备了一定应变能力,可以根据环境随机采取“自主行动”,这种有别于人类的“自主行动”,就是涌现。

涌现导致损害的责任承担更加复杂,归责问题成为人形机器人商业化应用过程中必须厘清的前提性问题。早期研发中,机器人都只能执行人类事先给定的程序性指令,并不能根据外界环境改变行为。在这种技术背景下,机器人所导致的损害由指令发出者承担责任,是没有任何疑问的。但是,因为不能因应外部环境变化,此时的机器人只能完成特定的任务类型,是专用机器人。众所周知,专用机器人更适合工业流水线,进入家庭生活的成本偏高,通用机器人才是家庭使用的理性选择。人工智能,特别是大模型的应用,赋能人形机器人和外部环境完成交互,极大推动了人形机器人的发展进程,通用机器人具备了落地的现实可能性。机器人与计算机有着根本差异,其中之一就是机器人与动态世界的交互。“机器人不断地与动态的世界进行交互,通常所设置的算法不足以涵盖所有这些动态,因此机器人的最终行为与编码的内容有很大的不同。”最终行为对编码内容的超越,即为人工智能、大数据和算法综合作用下的涌现。涌现意味着当人形机器人与外部环境互动时,人类并不能对其行为的导向和结果作出精准预测。如此一来,究竟谁应该对代码的作用承担责任,就不是很明确了。

人形机器人致害的归责,应当摆脱投机主义思维的影响,强调“权利—义务—责任”相一致的原则。美国著名学者劳伦斯·莱斯格提出“代码即法律”,在他看来,根植于软件和硬件中的代码定义了网络空间的术语,成为网络空间的规制者,属于社会生活的“预设环境”和“架构”,可以约束和指导人类的行为。而当涌现现象出现时,情况正好相反:自我学习系统可能既不可预测,也不受人类对适当行为的期望的约束,代码成为逃避人类监管的工具,不再是规范人类的法律。在此基础上,有学者进一步指出,机器人法律问题的研讨中经常出现机会主义的思维,通过机器人获益时部分人会淡化涌现,机器人致害时部分人则会强调涌现,而法律的目标是满足这种可预见的投机主义,完善利益分配与责任承担的归责。对此,本文则持相反观点,人形机器人涌现行为的归责与赋权应当秉持“权利—义务—责任”相一致的原则,风险与收益归为一体,建构符合公平、效率、安全、秩序价值诉求的制度体系。人形机器人的市场化推广过程中设计、生产厂商是最主要的受益者,购买者也可从后续的使用行为中获益,义务的履行和责任的承担也应当主要在这几方主体之间分配。

“权利—义务—责任”相一致同样是解决人形机器人生成内容是否受著作权法保护问题的主导性原则。致害的同时,人形机器人也会给使用人带来有价值的产出——人工智能生成内容。由于人工智能的内置和机械装置的具身外化,人形机器人不但会像普通的人工智能一样生成内容,而且会因具身的存在得以将生成内容输出、固定为各种人类所能感知的物理形式,同样面临著作权保护与否的取舍问题。从生成过程来看,涌现离不开人类主体的参与。涌现的前提是作为用户的人类输入了基本的指令,人工智能随后生成符合基本指令的内容。如果需要更贴合自身要求的内容,用户还须输入更多限定性条件,与人工智能完成交互。显然,用户输入的限制性条件越多,生成的内容也就越符合他的需求。从生成结果来看,涌现的结果在形式上与完全由人类创作且独立完成的智力成果无法区分。独创性是作品的构成要件,是决定特定表达是否构成作品的关键所在。归根到底,“独创性的判断对象是已经形成的表达本身,判断时只需要对表达作形式上的审查”。一些学者主张排除人工智能生成内容的独创性,但是,如果事先未告知内容生成的主体,仅靠人自身是无法有效区分,更不要说在此基础上完成立法与司法实践了。承认涌现结果的独创性,就是在承认人类有限理性的基础上,超越人类的有限理性,最终服务于理性的人类。生成内容有着巨大的商业价值,自然会出现权利、义务和责任,如果权利、义务和责任主体不一样,内容生成的法律风险和商业风险将会无限放大,产业发展势必成为空谈。涌现绝不是重复,从结果出发,将之视为创作,按照“权利—义务—责任”相一致的原则将权利主体确定为使用人,是我们应对生成式人工智能问题时成本更低、效果更好的解决方案。

二、貌合神离:机器人法律主体地位之否定

(一)权利主体与对象的学理纠葛

在传统的叙事表达中,机器人往往被界定为一种有可能最终反抗并奴役人类的特殊工具。文学作品中,机器人常常会被描述为因缺乏完整的编程或者突然出现的某种行为、错误而难以控制。影视剧中,机器人则是妖魔化的重灾区,《星球大战》《银翼杀手》《终结者》和《西部世界》等都推出了令人印象深刻的机器人反派,人类自身的生存都受到了机器人的威胁。不可否认,当代社会民众受到传媒的巨大影响,传统叙事表达中所营造的机械、麻木、冷血的机器人形象,都会影响我们对人形机器人本身的认知与接纳。著名科幻作家阿西莫夫对机器人形象的扭转起到了重要作用:“通过创造机器人三法则,他将我们对机器人的想象从威胁转变为解释和监管的对象,从而成为讽刺和冲突的来源。”

人工智能技术取得长足发展和老龄化日益严重的当下,确认机器人的主体地位已经成为一种比较时髦的话语。根据机器人的适用范围,可将其分为工业机器人、服务型机器人和特种机器人等。可以预见,在全球人口老龄化的大背景下,服务型机器人将会步入普通百姓的日常生活。在这一过程中,我们也必然会思考不同国家所面临的相同问题:是否要确认机器人的主体地位。对于工业机器人,我们通常不会产生赋予其主体地位的想法,迥异于人类的外形和与人类家庭生活关联松散这两点特征决定了人类很难对其产生情感投射。服务型机器人则有所不同,与人类家庭生活关联紧密会让人类产生情感投射。人形机器人更因其造型而激发人类的同理心,“当机器人唤起弱势群体之间的信任或友谊时,敏感的伦理问题就出现了”,伦理问题的核心,就是是否要确立机器人的主体资格,给机器人以同等对待。甚至有学者畅想人机混合社会中“电子人文化”与人类文化共生交融,接纳“电子人”的法律主体地位,将立论的基础选定在遥远的不可知的未来。

权利主体与权利对象的定性将产生不同的法律效果,这是我们明确机器人法律地位过程中必须考虑的制度背景。权利主体是目的本身,权利对象则是实现目的的工具,这一根本差别决定了权利对象是可以被任意处置的范畴,权利主体有其独立存在的价值。无论是权利主体,还是权利对象,作为功能性概念,它们的价值都依附于特定的规范体系,定性的不同意味着迥异的法律效果,意味着配套规范有明显差异。这就提醒我们,在明确机器人法律地位时,不能只考虑个体在哲学、伦理学上的偏好,还须兼顾法律定性的法律效果与社会效果。

(二)民事主体变迁背后的考量因素

民事主体资格的确认是社会发展到一定阶段的结果,并不存在先验的、确定不变的民事主体范围,经济交往的需要是立法者考量的首要因素。法律主体经历了从“人可非人”到“人可人”再到“非人可人”的历史变迁。从罗马法到近代各国立法,自然人的平等地位逐步被承认,“人”的队伍不断扩编。这种扩编,一方面是因为人权观念的勃兴,另一方面是因为经济发展导致大家族的解体、小家庭的独立和个体作为经济活动单元的变化。与此同时,法人与非法人组织的主体地位也获得了立法者的认可,这两类主体资格的认可都在一定程度上减免了自然人的无限责任,激发了经济活力,履行了个体不能代行的公共职能。因此,非人类实体的主体地位之获得源于立法者的抽象和虚拟,基于现实中人的需要。从历史梳理中我们得出一点结论:主体资格赋予的首要考量因素是经济交往的需要,其次才是伦理道德的要求,主体制度关注的核心问题始终是财产,关注财产归谁所有。

立法者确认民事主体资格的主要目的是明确权利的归属,承认的前提是民事主体之间能够有效沟通且共情,伦理关怀是主体资格确认时的次要考量因素。无论是自然人、法人,还是非法人组织,我国民法典确认其主体地位都是为了完成随后的赋权。除此之外,民事主体资格也有其伦理上的价值。这方面的著例,是死者与胎儿利益的保护,而其反例,则是其他动物主体资格的否定。死者利益的保护,是把法律救济延伸到死亡之后,胎儿利益的保护,则是将法律救济延伸到出生之前。两个方向的延伸,不是以日常用语中“人”的界定为法理前提,而是出于保障权利归属和实现伦理关怀的需要。死者曾经享有权利履行义务,胎儿未来会享有权利履行义务,以“权利—义务”为内容的社会关系是他们作为社会人的本质特征。而伦理关怀,则是要形塑一个道德层面的完整的“人”。相比之下,其他具备一定智力、拥有情感且会感知人类部分情绪的动物,被彻底排除出主体范围,人类制定的法律始终以维护人类利益为目的。我们无法确知其他动物的情感,更不能确知其内心真意,没有进一步实施相应法律行为的可行性和必要性。在其他动物永远不能自主行使权利履行义务的场景中,赋予其“权利”自然也就没有任何价值可言了。

民事主体地位的确认,落脚点在民事责任的承担,构建自由、公平、正义、安全、效率、秩序的法律制度环境,不能独立承担责任的存在无法成为有法律意义的民事主体。民事主体不但要具备权利能力,还要具备行为能力,能够对其不法行为承担责任,责任能力是行为能力的应有内容。自由、公平、正义、安全、效率和秩序都是人类所追求的基本法律价值,而这些法律价值的实现,离不开责任制度。能够对自己的选择承担责任,这样的自由才是值得追求的,不能承担责任的自由选择对他人而言就可能是灾难。对于给他人造成的损害,唯有承担责任才能维护公平与正义。承担责任是民众对安全的底线要求,法律主体对他人的行为产生最低程度的稳定预期。以责任的承担换取对效率的追求,这种尝试在民事活动领域是常见行为,效率违约也是一种理性的体现。通过对违约和违法主体追究责任,给予负面的规范评价,责任制度建构起稳定的法律秩序。综上,责任的承担保障了民事主体地位的确认与法律的价值追求趋于一致,立法目的得以实现,独立承担民事责任成为民事主体资格的重要组成部分。

(三)机器人主体资格的否定

机器人在物理层面的特性决定了其不能理解法律规范对于自身的意义,法律规范无法直接影响机器人的行动选择,为机器人拟制法律主体必须具备权利能力是没有意义的。第一,机器人可以理解法律规范的字面含义,但不能真正理解法律规范的现实效力。机器人没有获得财产的需求,没有组成家庭、延续生命的期望,不能感受生命的有限和自由的可贵。“权利能力是作为权利和义务主体的能力”,“权利—义务”就是人类的自然需求与社会关系的谱系化,是法律关系的常态,所有以“权利—义务”为表现形式、以人的自然需求和社会关系为基础的法律规范,机器人是不可能从现实效力层面对其有所认知的。第二,机器人没有获得财产和其他社会评价的动力,其内在驱动力是计算机代码。机器人没有必须通过金钱交易或获得社会评价才能满足的利益诉求,也就不能了解包括财产制度在内整个法律制度的本质,赋予其主体地位无助于法律制度的有效运作。不论是否存在利益的移转,机器人都会实施相应行为,内置的程序代码是其驱动力,它并不能自主地、基于自身利益需求而作出行为选择。当法律规范既不能被机器人所真正理解,也不能对其行动选择的过程和结果进行直接、有效的调控时,确认其法律主体地位自然也就失去了法律意义。

机器人不能独立承担责任,不具备法律主体资格所需的责任能力。目前主张机器人主体地位说的学者,大多回避责任承担的具体实现方式问题,少数对民事责任承担的建议,则叠床架屋,主张在机器人构成主体的情况下由人类以商业保险、设立赔偿基金等方式分散风险,其实质都是人类而非机器人承担责任。这种醉死不认半壶酒钱的民事责任承担方式,恰恰否定了机器人的法律主体资格。刑事责任的承担,与民事责任大同而小异。机器人没有生物学意义上的生命,无法真正理解生命和自由层面的限制。有学者认为,发展到一定阶段的智能机器人在程序的设计和编制范围外按照自主的意识和意志实施犯罪行为时,完全可能成为行为主体而承担刑事责任。在他们看来,智能机器人具有自主意识和意志,能够感知刑罚“痛苦”,进而趋利避害完成行为选择。但对一个不需要财产、不能真正理解生命和自由的存在而言,任何刑罚的执行都是没有意义的。综上,机器人不具备责任能力,强行规定为法律主体只会适得其反。

对于机器人的主体资格确立,短时间很难达成伦理层面的共识,正当性不足。第一,人类是无法与机器人实现真正意义上的共情。类人的外形和人工智能的技术加持会让一些人产生错觉,以为人形机器人能与人类进行无限制的沟通。然而,真实情况没有想象中发展得那么快,机器人技术仍然处于初级阶段,人与机器人缺乏相互共情的基础,我们无需把一些人的单方情感投射放大为双方的情感交流。反过来,机器人也无法与人类共情。每个人的生命存在与成长都是一个社会的、历史的、文化的过程,相应的,人类拥有肉体生命、精神生命和社会生命的三重生命,而社会生命可能是机器人无法超越的技术瓶颈和价值悖论。第二,承认机器人主体资格的目的是体现人类的伦理关怀,但其结果则是将会给人类带来更多伦理上的难题,结果与目的完全背离,是不可取的。承认机器人的主体资格,则机器人的生产厂商和使用人就可以免除机器人致害所导致的责任归属,由机器人自身承担责任是尊重其主体资格的当然之理。然而,“法律在本质上是一种预防措施……那种试图将我们传统的惩罚观念直接套用到机器人身上的做法是完全没有意义的”。当承认机器人主体资格所产生的结果是让作为道德主体的人类逃避本应由其承担的责任时,这种不断拉低人类道德底线的制度设计不应成为我们追求的方向。第三,个别国家针对机器人或自然事物确认主体资格的尝试,规范意义有限,也没有普适的可能,没有参考价值。一些学者以Paro机器人在日本完成户籍登记为例,提出机器人已超越“财产”定位。也有学者将人形机器人“索菲亚”被沙特阿拉伯授予公民身份为论据来证成机器人的主体资格。但是,上述事件属于极端个案,象征意义远远大于实际价值,而实际价值仅限于茶余饭后的谈资。

法律拟制技术的存在和法人构成法律主体的立法实践不能直接推导出机器人也应被拟制为法律主体,两者之间没有必然联系,将机器人拟制恰恰不能实现立法目的。法律拟制是一些学者主张机器人法律主体地位的理论支撑,是证成主体地位的立法技术准备。通常认为,法律拟制是立法者“为了实现法律背后的制度目的而作出的一种不容辩驳的决断性的虚构”。规范的制定是为了便利人与人之间的交往,以法人为典型的各类拟制主体的出现也是为了实现这一目的,并没有独立于人类自身的价值,“法人制度使团体本身的权利范围同其成员的权利范围相分离,使整体和个别成员之间能够发生法律关系”。机器人的出现也不例外,在看待它与人的关系前景时不应陷入技术主义直线思维的“价值盲区”,机器人发展起来以后怎样对待人,其实是人怎样理解和对待人的问题。目前机器人并不存在独立于人的利益需求,难以在所有事项上与人类有效沟通,更不能发生彼此间的共情,将其拟制为民事主体是无法达成立法目的的。有学者透过现象,直指机器人对人类自身种群命运的实质危害不在于莫须有的机器人“人格”本身,而是极少数创造算法、通过人工智能驱动社会运转的业内人借助机器人“人格”的掩护,完成对更大多数人的算法独裁与技术绑架。发展机器人从来都不是为了消灭人类自身,而是为了人类更好的生活,这是我们明确机器人法律地位的立场。拟制与想象之间,我们必须选择现实,选择不得不面对的这一切——机器人不是主体。

现有规范体系可以解决创设机器人主体所要回应的问题,欠缺确认主体的必要性。按照“如无必要,勿增实体”的奥卡姆剃刀原则,如果在现有规范体系之下就可以解决相关问题,那么就没有必要另起炉灶,确立机器人的主体地位,并以此为基础设计一整套规范体系。创设机器人主体所要回应的问题,主要是涌现结果的著作权归属和具身运行导致的侵权行为责任归属。对于这两个问题而言,将权利归由使用人享有而责任根据具体情形分别由使用人或生产厂商承担,基本沿用现有规范体系,解决成本显然更低。有观点认为,在已经具备创造或者因自身决定导致损害发生时,应将人工智能视为民事主体,但视为主体后不能运用产品责任或动物致人损害的规定明确责任归属,在现行法框架下可类推适用雇主责任的规定。在不可能存在雇佣关系的情况下类推适用雇主责任,无视将机器人定位为工具后所形成的产品责任方案,这种舍近求远的“拟制”路径选择并非优选。目前为止,并不存在只有通过确立机器人法律主体地位才能够解决的问题。

三、需要特别规制的特殊对象:人形机器人的法律地位

(一)法律风险总体可控的对象:作为特殊对象的人形机器人

人形机器人在某些领域乃至所有领域内表现出的智力水平超越人类,这一现实并不能当然证成人形机器人的法律主体地位,智力水平并非法律主体的构成要件。我们并不能仅仅因为人形机器人的智力水平和解决问题的整体能力高于人类而赋予其法律主体地位,安全、高效、可靠的机器人“工具”才是理想中的机器人形象。我们也没有因为其他动物,特别是灵长类动物所表现出的智力水平而赋予其法律主体地位。从历史上看,在否定奴隶、家子和女性主体地位的论证过程中,智力水平从来都只是立法者的借口之一,但这种借口事实上根本不成立,限制独立取得和处分财产的资格才是目的所在。而在扩大自然人主体范围的过程中,独立取得和处分财产才是实质性理由。

从运行效果上看,将人形机器人定位为对象所确立的权利归属、权利行使和责任归属的体系最为简明。人形机器人实施相应行为的法律后果,包括行为所催生的权利之归属、行使和责任分配,对象的定位将其还原为工具,免去了定位主体时的种种困扰。第一,定位为对象后,人形机器人生成内容的权利均归属于使用人,权利主体明确,可以推动相关产业的健康发展。第二,定位为对象后,使用人凭借主体地位,积极主动利用人形机器人,趋利避害作出相应行为选择。第三,定位为对象后,人形机器人的使用人和生产厂商将根据具体情况分别承担责任,在第三人得到救济的同时,人形机器人的使用人也会调整行为策略,生产厂商则会改进设计。把人形机器人定位为对象的实质,就是将一切法律效果复归于人。有观点认为,人工智能具有有限的法律人格,无法独立完全承担责任,应依据实际情况由其设计者、开发者、制造者或使用者承担。然而,人工智能不是“无法独立完全承担责任”,而是“完全无法承担责任”,“有限法律人格”的说辞背后,是工具的实际效果。不论如何调整表述,只要责任最终由人类承担,人形机器人就不可能成为法律上的主体。

在当下及未来较长一段时间内,人形机器人只能是法律关系中的对象。道德与法律,不仅仅包含字面上的意思,更重要的,是文字背后深嵌入社会背景的人与人之间的互动关系。机器人没有自身的利益诉求,没有驱动其建立社会关系的内在动力,也就不会形成具有独立意义的社会关系。因此,“至少在我们可预见的未来,机器人是不能完全理解人类的道德和法律的”。值得法律界人士关注的,不是技术实现的细节,更不是技术发展的可能方向,而是技术实施的现实后果。“技术主义直线思维”的最大特点是迷信技术,忽视技术本身的价值前提,脱离人类关注和考量的范围,进入“价值盲区”。机器人为人而生,这是打破“技术主义直线思维”的认知立场。我们必须确保人形机器人的存在不会危及人类自身的生存与发展,只有将人形机器人定位为对象时才能实现这一基本要求。

只有将人形机器人定位为权利对象,坚持人类中心主义的立场,才可能建构起一种符合人类自身利益的法律秩序,廉价的博爱、泛爱只会给人类社会带来灾难。古希腊哲学家普罗塔哥拉曾言“人是万物的尺度”,将人类定位为观察事物的中心,开启了以人类为中心评价整个世界的历程。法律是为了保护人类的利益而制定的,这本是人类社会的基本共识,法律自身就是人类中心主义的产物,属于工具性范畴。然而,总有一些学者的出发点与众不同,站在所谓上帝视角来思考问题,用推翻人类中心主义的博爱、泛爱叙事来认识世界和改造世界,在机器人的法律地位问题上也不例外。美国有学者提出“实力界定权利”的理论,强调不同群体的实力博弈决定着权利体系的构筑。国内则有学者在此基础上更进一步,提出机器人权利的生成完全依赖于机器人与人类的实力对比和博弈,应当建立不同种族间共存的法律保障机制,以此来应对老龄化社会的巨大压力。按照这种逻辑,人类最终将陷入非常荒谬的悖论当中:如果人类继续推进机器人的研究,那么机器人将因其差距越来越大的优势地位而取得对人类的统治权,人类只能成为机器人的奴隶;如果人类在某个阶段停止对机器人的研究,那么这种故意遏制也将侵犯机器人的基本权利,就如一些人类遏制其他同类的发展权一样,权利主体一说变成文字游戏。人类中心主义是以人类的长期、共同利益为出发点,将人类中心主义矮化、片面解读为不尊重自然和其他生命形式的观点是完全错误的,尊重自然和其他生命形式也属于人类的长期、共同利益,过往的困境、灾难,恰恰源于对这一出发点的误解。人类中心主义的立场,是我们构建、发展、完善法律规范体系的根本出发点。

作为人类建构的产物,人形机器人属于法律风险总体可控的对象。在欠缺自我意识的时代,人形机器人并不可怕,我们应该担心的,是日益强大的人形机器人与人类的目标不一致。类人外形与高度复杂的技术集成,使得人形机器人隐藏着一定法律风险。由于运行时越来越依赖于人工智能、算法和大数据,人形机器人也会形成自己的目标。为确保目标一致,我们需要在设计之初就加入伦理规则,引入人类的价值判断,将人形机器人的目标限定在与人类基本共识相一致的大范围内。至于赫拉利在《未来简史》中所预言的人工智能取得统治地位、少量由智人进化而来的“神人”可以“独善其身”的场景,更是我们要力图避免的。人类首次核试验完成后,物理学家奥本海默曾引用了古印度史诗《薄伽梵歌》当中的一句话来表达自己的矛盾心情:“如今我已成为死神,世界的毁灭者。”如果放任人形机器人技术的发展,确认其法律主体地位,那么我们也将在未来发出同样的哀叹。而将人形机器人定位为对象,就是要控制人形机器人的风险,保障法律风险总体可控。人类谈论机器人时,通常关注的是它们是否会产生问题或造成威胁,但在大多数情况下,问题不在于机器人,而在于人类自身。围绕人形机器人法律风险所制定的各类规范,归根到底,都是用来调整人与人之间的关系,而非人与人形机器人之间的关系。

(二)伦理风险和技术风险较高的权利对象:需要特别规制的人形机器人

无处不在的传感器和云端存储时刻威胁着人类的隐私,深度介入人类生活的人类机器人必须进行特别规制。人类将服务机器人引入家庭生活中,这可能会进一步减少隐私保护的机会。正如一些学者所指出的:“个人机器人将了解你的一切,个人生活中最私密的部分,你的家庭、财务状况和身体病史。更为关键的是,它们与互联网相连。”传感器主动搜集和传输信息,云端存储则将隐私信息永久性地保留,放大损害的时间与空间。出于营利的需要,生产厂商会通过人形机器人寻求个人信息的过度获取,智能手机的使用中我们已经充分体会了信息过度获取与泄露带来的困扰。不但如此,生产厂商还会进行数据贸易,将包含隐私信息的海量数据出售给第三方,而个人对此一无所知。我们必须警醒,监控往往会带来直接的、具体的收益,但同时也会带来更长期、更分散的危险。

人形机器人偏离价值判断的决策和管理活动,会给人类造成合乎个体理性但不符合整体价值追求的伤害。正常情形下,经过严格设计的人形机器人都是可以安全使用的工具,帮助人类实现各种合法目的。但当使用人发出恶意指令时,由于人形机器人缺少在具体场景中及时完成价值判断的充分信息,相应的决策和管理活动就会给人类造成合乎个体理性但不符合整体价值追求的伤害。我们可以给人形机器人以代码的方式内置各种伦理规则,但这些抽象的伦理规则的落地,还需要结合具体的场景,而场景中的信息,往往是人形机器人无法全部获知的。例如,使用人发出指令,要求人形机器人搬运东西,在所有事物都接入物联网之前,信息不对称使得人形机器人没有办法分清所搬运东西的所有权状态,对于使用人的偷盗指令也只能遵照执行。因此,有必要在法律层面明确使用人恶意发出指令时责任的归属。

人形机器人运行中的数据安全问题,也是需要重点关注的,特别是黑客攻击。数据传输过程中常常会发生信息泄露,原因主要是自身网络问题和黑客攻击。在大数据时代,几乎没有所谓的“无用”数据。即使是一些看似无害的信息,也可以用来收集我们的个人信息,如果不能单独使用,也可以与其他数据结合使用。人形机器人运行过程中黑客会在以下三个方面威胁数据安全:第一,黑客使用技术手段非法获取各类涉及隐私的数据。无论是存储还是传输的数据,都可能因遭受黑客攻击而被窃取。第二,黑客远程操控视听传感器获取隐密视频影像。视听传感器的使用为黑客直接窥视个人私生活提供了便捷通道,敲诈勒索随之而生。第三,黑客远程操控人形机器人实施破坏行为。虚拟攻击正从设想走向现实,人形服务型机器人的远程操控将给我们带来直接的物理损害。如何防范黑客攻击,将是人形机器人生产厂商必须谨慎对待的难题。

获得合法授权或符合法定权利限制情形,是人形机器人内容生成的合法性保障。由于人形机器人使用了人工智能作为底层技术,人工智能生成内容著作权法调整中的问题和对策同样适用于人形机器人生成内容。对于生成式人工智能的法律规制,存在前端与后端的区分。我们通常关注的主要是后端的问题,也就是输出端阶段生成内容本身的著作权保护。前端的问题,则是输入端阶段内容生成得以实现的前提——数据取得的合法性,也就是协商许可与包括合理使用规则在内的权利限制制度的选择适用。对此,既有主张改造合理使用制度的,也有主张以“表达型使用”和“非表达型使用”的区分为基础而证成机器学习行为合法性的,还有主张用法定许可来平衡产业链上各方利益,尚未达成基本共识。我国《生成式人工智能服务管理暂行办法》第7条规定,生成式人工智能服务提供者,应当“使用具有合法来源的数据和基础模型”,“涉及知识产权的,不得侵害他人依法享有的知识产权”。上述条文对数据取得的合法性作出了框架式的规定,如何落地,仍然需要进一步的研究。

在人形机器人的复杂技术构成、依指令行动和涌现的随机性这三项因素的叠加作用下,人形机器人侵权行为的责任归属变得更加困难。支撑人形机器人正常运行的算法所固有的各种弊端,需要在立法层面努力消除。我们正在从互联网社会走向算法社会。所谓算法社会,是指“一个由算法、机器人和人工智能代理围绕社会和经济决策组织起来的社会”,机器人和人工智能都是算法社会的应用个案之一。但是,算法黑箱使得人类“可能处于一种无从知晓、无力参与、无法异议并最终难以抵抗的‘失控’状态”。对此,需要建构科学的算法治理机制,引入算法影响评估和算法审计制度,消除算法歧视、信息茧房等不利后果。涌现的结果部分是不可预测的,这一事实也影响到责任的追究。对于一般的工具,使用人可以对其实施有效的控制,因此,当在其控制下的工具造成他人损害时,使用人应当承担责任,损害结果与他的控制行为之间存在明确的因果关系,是可以预测的。人形机器人则有明显不同,由于涌现的出现,使用人对人形机器人的控制能力远远没有一般工具那么强。在这种预测可能性大大降低的技术背景下,如果还要按照传统的过错责任原则来追究损害赔偿责任的话,显然是不适当的。穿透技术的面纱,辨明人类主体在人形机器人行为实施中的角色、作用,结合产业发展的需求,妥当分配责任,将是立法者未来需要完成的任务。

结语

在历经了蒸汽机、电气化和信息化三个时代后,人类正在进入工业4.0时代——智能化时代,而智能化时代的基础技术和应用,就是人工智能和人形机器人。智能化时代人形机器人究竟向何处去,考验着人类的智慧与决断。本文认为,人类应秉持人类中心主义的立场:“我们可以坚持一种维护而不是破坏的文化,一种补充而不是取代人类的文化。我们能够实现并负担得起一个由人而不是机器统治的世界。”具身使人形机器人进入人类的家庭生活,涌现则让人形机器人具备有别于人类的强大能力,基于人类中心主义的立场,我们应将人形机器人定位为法律关系中的对象,而不是冒冒失失地将其抬升为主体或受限制的主体。站在道德高地将万物一视同仁并不会让我们在处理人类与人形机器人间关系时获得更好的视角,恰恰相反,缺少目的指引的博爱、泛爱会将人类引入歧途,人形机器人既不是人类的同类,也不是与人类平等交往的法律主体,它们是且只能是人类创造更美好世界的良好工具。无论技术如何发展,我们都应当保持对自动化技术的警惕和反思。

(本文来源于《东方法学》2024年第3期)

专题统筹:秦前松