中国实践
东方法学特稿|王华伟:论人形机器人治理中的刑法归责
2024-05-20 13:05  点击:20171

作者:王华伟,北京大学法学院助理教授、法学博士。

一、问题的提出

随着人工智能时代的到来,机器人在人类社会中扮演着越来越重要的角色。通常认为,1920年捷克作家卡雷尔·恰佩克的剧作《罗萨姆的万能机器人》最早使用了机器人一词。但在很长一段时间内,机器人都停留在科幻作品的描述之中。20世纪40年代以后,美国、法国、日本等国陆续研发了可编程的机器人。随着技术的不断进步,机器人的智能化水平逐渐提升,经历着快速的智能迭代。按照学者的分类,第一代智能机器人以传统工业机器人和无人机等机电一体化设备为代表,第二代智能机器人具有部分环境感知适应、自主决策能力,如机械臂、外科手术机器人,L3、L4自动驾驶汽车等,第三代智能机器人则具备更强的环境感知、认知、情感交互功能和自我进化的智能。按照应用领域,可将机器人分为工业机器人、探索机器人、服务机器人、军用机器人。在各种不同类型的机器人中,人形机器人越来越成为关注的焦点。自从有了机器人这个词,创造出拥有人类外形的机器人是人类一直以来的梦想,世界范围内很多国家都在积极开发仿人机器人。从1973年早稻田大学研制的WABOT-1,到2000年本田公司设计的ASIMO,2013年波士顿动力研发的Atlas,2014年日本软银公司发布的Pepper,2015年美国汉森公司研制的Sophia,以及近几年特斯拉公司所研发的Optimus等,人形机器人的仿人性能和智能水平越来越高。

在我国,人形机器人逐渐成为通用人工智能产业化的重要赛道。人形机器人能胜任多种应用场景,被业内认为是通用人工智能的最佳载体。2023年1月,工信部等十七部门联合印发《“机器人+”应用行动实施方案》,推动机器人技术在经济发展和社会民生十大重点领域的应用。2023年10月,工信部发布《人形机器人创新发展指导意见》,为人形机器人的产业发展方向做出了部署。此外,北京、上海、深圳等地陆续都发布了促进机器人产业发展的行动方案,国内一些公司也相继发布了多款人形机器人产品。随着2024年年初多家头部企业陆续公布机器人核心零部件生产基地建设计划,人形机器人临近量产的节点似乎已经可以期待。

然而,技术的发展常常同时带来机遇和挑战。机器人可能会在很多应用场景下形成损害后果,同时它又前所未有地带给人以某种社会主体的形象。社会将在多个层面面临新的安全风险,这会对现有法律体系带来冲击。在此背景下,如何实现刑法上的责任归属,也面临着越来越大的争议。有学者指出,人形机器人将会是自动驾驶汽车之后,人工智能领域关于刑事责任探讨的主导性问题。有鉴于此,本文将立足于人形机器人的技术特性和法律属性,尝试全面考察其在不同应用场景中形成的复杂安全风险,着重分析其中的主要刑法归责难题,在此基础上系统地阐述可能的应对方案,探讨兼顾现实与面向未来的刑事归责体系建构思路,为该领域的研究探索初步的理论框架。

二、人形机器人的技术特性与法律属性

作为机器人家族的一个重要分支,人形机器人具有独特的技术特征,这些特征会深刻地影响其实践应用、安全风险和相应的法律属性。

其一,人形机器人具有仿人类形象的外在条件。人形机器人具有类似甚至接近于人类的外部结构,例如头部、躯干、四肢、五官等。理论上有观点认为,人类不需要将机器人的生产和设计朝着仿人化的方向发展,这种做法潜藏着伦理、法律上的诸多弊端。但是,研发人形机器人不仅仅是因为人类具有某种“物种自恋”情结,而是人类也可以通过这种方式了解自己。更关键的是,机器人的仿人特征能够带来很多优势,因而被主流实务界所青睐。人形机器人的仿人外形,使得人类能够增加对其的亲和力和好感度。早在20世纪70年代,日本机器人专家森政弘就曾指出,在一定范围内机器人与人类的相似度越高,人类对机器人所具有的好感度也越高。因此,人形机器人也具有了更加广泛和深度的运用场景,能够为人类带来更多价值。例如,在不久的将来,陪伴型的服务机器人、社交机器人(social robot)将会成为发展重点。2024年1月国务院办公厅发布的《关于发展银发经济增进老年人福祉的意见》便已经指出,推进服务机器人等智能设备在居家、社区、机构等养老场景集成应用。

其二,人形机器人具有更加复杂性、综合性的技术要求。目前已经广泛运用的工业机器人,如机器手臂,在技术要求上相对简单。而人形机器人不仅在硬件上面临工程学、动力学等多方面的挑战,而且在软件上对人工智能研发提出了极高的要求。按照目前的通行认识,人形机器人具有三大关键技术:“大脑”(环境感知、人机交互),“小脑”(运动控制),“肢体”(本体结构)。这三个领域各自的技术要求,本身都是一项巨大工程。而人形机器人的研发至少需要将以上三者有机统合起来,在技术特性上具有更强的综合性和复杂性。正是由于人形机器人的发展需要综合诸多前沿学科,其被视为是机器人技术的最终目标之一。

其三,人形机器人具有高水平的人工智能。近年来快速进化的人工智能技术,是人形机器人发展的重要推动力。显然,人形机器人不仅仅是具有仿人外形的机器人,更高程度的人工智能是其区别于传统机器人的核心特征。尤其是,人工智能大模型的迅速发展,很可能会与人形机器人的智能进化深度结合在一起。例如,近期Figure AI公司与OpenAI公司合作,引入视觉语言大模型(Visual Language Model,VLM)很快推出了智能程度相当先进的人形机器人Figure 01。理论上,曾有观点细致地区分了人形机器人(humanoid robot)与类人机器人(human robot),认为人形机器人的外表与人类相仿,可以进行简单的人类行为(如伸手抓取物品、双腿行走等),而类人机器人是与人类行为接近并生活在类似人类社会环境中的机器人。事实上,不宜仅对人形机器人作形式化的定义,高度智能化以及由此带来的深度人机互动,应当构成人形机器人的基本特征。

综上,人形机器人和人工智能是紧密联系但又存在差异的两个法律概念。人工智能是涵盖面更广的概念,其主要强调高度智能化的属性。而人形机器人以人工智能作为基本构成条件,是人工智能的具身化应用(具身智能),但还存在智能化以外的其他高度仿人特征,因此在更加具体的应用领域形成更多现实性的问题。由此,人形机器人与人工智能的刑事风险规制,既互相关联又各有侧重。人工智能的刑事风险规制以产品责任为起点,可拓展至人工智能的独立责任主体地位争议。而人形机器人的刑事风险规制则在此基础上,会更进一步涉及其具体应用领域中的前置法评价与伦理标准等问题。在此意义上,人形机器人既是一种产品类型,又是一种不同于一般产品的人工智能具身实体,相关的法律争议比一般的产品责任问题更加复杂,应当结合其多元的应用场景和特别的风险类型,在刑事法律的责任体系中加以独立地考察和剖析。

三、人形机器人的应用场景与刑法归责难题

人工智能可以作为一种犯罪工具,可能成为被攻击对象,同时还可以为犯罪提供语境或背景。人形机器人作为人工智能的一种实体应用形态,它为人类带来便利的同时,也潜藏着一系列安全风险。有学者甚至认为,越有人性的人工智能越危险。在展开刑法归责体系建构之前,有必要结合目前已有和未来可能的技术应用场景,初步梳理人形机器人的各种安全风险及其为刑法归责带来的难题。

(一)刑事责任离散现象

随着人形机器人的广泛部署,机器人与人类在社会交往中的联系更加稠密,人类的人身、财产权利面临更高的风险。机器人伤人的案例早已有之,代表性的案例如:德国鲍纳塔尔大众汽车工厂内的机器人手臂造成工人死亡,德国阿沙芬堡一辆自动驾驶汽车失控后将路人撞死,微软在推特平台推出的智能聊天机器人Tay对使用者进行了语言侮辱。人形机器人的广泛部署,会进一步加剧上述类似情形出现的可能性。例如,在社交机器人与人类的日常互动中,可能会出现机器人对人类造成身体或心理损害的情况。人工智能化人形机器人在日常生活场景中的应用,在一些场合造成严重的法益损害后果在所难免,然而究竟由谁来为此承担刑事责任,面临很多不确定性,由此出现刑事责任离散(Diffusion)的现象。

其一,人形机器人引发法益侵害后果,往往涉及多方主体的参与和共同影响。人形机器人的硬件制造者、软件开发者(尤其是智能系统的编程者)、销售者、所有人或使用者,都可能是潜在的归责主体。如果能够查明是哪一环节出现了错误,从而直接导致法益侵害后果的发生,则不会出现明显的归责难题。但由于技术运行的复杂性,完全可能存在多方主体同时发挥了不同程度影响的局面,此时是否都要进行刑事归责、对何者进行刑事归责不无疑问。

其二,人形机器人的高度自动化特征,对法益侵害结果的归责结构形成了冲击。由于人形机器人可以在一定程度上进行自主学习和决策,那么其行为所引发的后果则可能超出生产者、编程者、所有者、使用者的控制和预期。当机器人系统出现错误决策时,有的时候事后难以进行复盘,人工智能和自动学习系统所带来的这种不可预见性,为刑事归责带来了困难。

其三,人工智能和机器人属于前沿领域的应用,技术标准仍处在不断发展变动过程中,由此造成规范评价上的不稳定性。在刑法的规范评价中适当考虑风险的社会意义,是客观归责理论的经典思想。例如,法律可容许的风险和信赖原则便是典型的理论范式。然而,这些理论范式的适用,仍然依托于人们对技术可靠度、法律框架的变革、社会整体利益衡量等问题所形成的基本共识。而人工智能和机器人技术处在快速发展、变动不居的阶段,其在人们的观念认同中尚属新兴事物,从中提炼出刑法评价上的可容许性边界和信赖基础并非易事。

(二)责任主体地位不明

为了避免责任离散现象所形成的处罚漏洞,在自然人的刑事归责之外,出现了将智能机器人确立为独立责任主体的观点。但是,这种理解在理论上引起了极大的对立,学界目前几乎没有共识,主要的争议集中在以下几个方面。

其一,智能机器人是否拥有自由意志,从而成为独立归责主体。肯定性的意见认为,智能机器人在设计和编制的程序范围外实施行为,实现的是自己的独立意志,可能在自主意识和意志的支配下实施行为。反对的观点则认为,现阶段的机器人不能感知自由,不能理解权利和义务的概念,不具有反思自己行为好坏的能力,因此不能被视为“自由”的主体,不具有规范评价意义上的“目的性”与独立控制行为的意志自由。

其二,智能机器人是否具有拟制人格,从而像公司(或法人)一样承担独立责任。肯定说认为,既然没有自然生命和精神的公司可以被赋予刑法主体资格,那么机器人同样大量参与人类生活,和公司没有本质区别,应当类同对待。否定说则指出,公司刑事责任仍然是某一部分自然人的责任,其始终无法切断人的联结点作用,因此不能通过这种类比来肯定机器人刑事责任。

其三,将刑罚施加于智能机器人,是否具有可行性以及能否实现刑罚目的。肯定的意见认为,对机器人可以通过一些变通或比照性的方式来进行处罚,如摧毁机器人、重置其算法、禁止其使用,设置保险基金来执行罚金等。通过对机器人的处罚,可以对被害人给予心理补偿,实现刑法谴责错误行为的功能。反对性的意见则指出,人工智能系统和机器人的行为并不以规范为导向,对其进行处罚不具有确证规范效力的效果。让机器人承担罚金,最终实际导致机器人的所有人承担损失。

(三)刑法与前置法缺乏沟通

人形机器人的应用场景逐渐拓展,随之其安全风险也向更多特定部门性领域蔓延,不同法秩序之间的交叉加剧,对刑法与前置法之间的协同性提出了更高要求。然而,对于更加注重内部理论体系建构的刑法研究者而言,这些问题尚未引起充分关注。对此,人形机器人在军事、警务、家政、护理等具体领域的应用,以及相应形成的安全风险和刑法归责难题尤为突出。

由于人形机器人具备良好的仿人化行动能力,拥有一定的自主决策智能,将其适用于军事行动或警务行动可以在很多场合更加高效、准确执行任务,避免人员伤亡。早在2013年美国发布了Atlas人形机器人,2017年俄罗斯也研发了FEDOR人形机器人,这些都是在探索将人形机器人适用于军事领域的可能性。在当代战争中,无人机等自动化设备已经被广泛使用,在未来更具智能性的人形机器人被投入战场的情形也可能发生。随着战争场景中机器人智能化程度和自主决策能力越来越强,是否能够允许其在战争中投入使用,是否应当在法律上赋予其独立主体地位等问题引发了很大争议。如果说战争并非常态,那么人形机器人未来可能在警务领域得到更加常见的运用。2016年7月,美国达拉斯警方在一起嫌犯暴力射杀警察的案件中,通过遥控装有炸弹的机器人的方法将行凶者杀死。这是美国警方首次在执法行动中通过机器人使用致命性暴力,引发一定的担忧。2022年12月,美国旧金山监事会投票通过议案,允许警务部门使用杀手机器人(killer robot)在执法过程中杀害嫌疑犯,但随后该提案遭到了公众的强烈反对,最终被推翻。在警务活动中投入能够自主决策的机器人固然能够具有诸多优势,但是机器人能够实施多大程度的暴力,如何把握合理的限度,如果机器人造成了损害后果,谁来承担责任以及是否构成犯罪,面临很大的不确定性风险。

人形机器人在家政、护理、酒店等领域已经得到较多应用,但它非常依赖于信息和数据的大量处理,其中潜藏了前所未有的隐私、信息和数据安全问题。一方面,人形机器人需要向外大量获取信息数据,这将对隐私、信息和数据安全形成挑战。家庭机器人为了更好地与人类互动,需要尽可能多地获取包括敏感数据(如生物识别数据)在内的各种个人数据,而且这种数据获取可能会超越必要性或授权边界。而护理机器人则前所未有地、几乎毫不间断地介入病人的隐私领域,收集和记录病人大量极为私密、敏感的个人数据(甚至包括裸体、性行为等信息),其对病人进行持续的监护,也可能会影响到病人在很多决策上的自治性。另一方面,人形机器人本身储存了很多重要数据,实际也扮演了数据平台的角色,如果其内在系统没有可靠的安全机制,会存在数据泄露的风险。例如,日本一家著名的机器人主题酒店Henn na Hotel,很多服务员都由人形机器人来担任,其房间内的机器人因为易于被入侵、窥探和远程操控,使得顾客的隐私可能遭受侵犯因而受到投诉和质疑。

在上述人形机器人应用场景中所形成的安全风险和刑法归责难题,在很大程度上需要刑法和国际人道法、行政法、警察法、信息和数据保护法等相关规范协同治理。而在人形机器人的设计、生产、使用上,目前在这些部门法之间仍然缺少充分的沟通机制。

(四)伦理评价标准悬而未决

人形机器人与人类私密生活领域的融合逐渐深化,其高度仿人性、智能性对既有的伦理标准、社会道德尺度形成了巨大挑战,由此也将直接或间接地影响刑法评价。对此,在性相关犯罪领域所形成的新问题尤为引人关注。

人工智能技术被运用于性相关犯罪领域,成为日益突出的问题。使用AI换脸、深度伪造技术传播淫秽内容、侵犯他人人身权利的行为屡见不鲜,相关国家已经开始考虑通过立法予以特别应对。而将人工智能予以实体化的人形机器人,由于具有了逼真的仿人实体,将会在性相关领域引发很多复杂的新问题。目前已经出现的争议主要围绕性爱机器人展开。性爱机器人不同于简单的性玩具,它具备更完整、更逼真的人体结构特征(通常主要是女性形象),因此不仅仅是作为一种满足性欲的工具,而且可能成为由人类所支配的“同居伴侣”。随着人工智能技术的进步,性爱机器人的智能化是目前的重要发展趋势,相关产品早已经在国外市场流通。例如,True Companion公司的Roxxxy有五种不同性格特征的性爱机器人可供选择。其中,FrigidFarrah存在诱导用户对其进行强奸的设置,而Young Yoko则存在对刚满18岁女性进行“性规训”的不良导向。另外,Real Doll公司的Harmony以及Synthea Amatus公司的Samantha等都已经为搭载AI技术的人形机器人设计了相当仿真的各种性爱行为细节。甚至,由于已经存在了儿童性爱玩偶,对于可能出现的儿童性爱机器人也引发了严重担忧。

能否在法律上(尤其是刑法上)允许性爱机器人的制造和流通,存在巨大争议。性爱玩偶目前在大部分地区并没有被明确认定为淫秽物品,通常不会受到刑法的严格规制。但是,性爱机器人具备越来越逼真的仿人特征和智能水平,是否能够延续同样的逻辑则仍不清楚。配置有性爱玩偶和性爱机器人的“妓院”已经在一些地方出现,对此自由主义者、保守主义者、女权主义者形成了迥异的立场。在我国,对淫秽物品进行了非常严格的管制。如果存在生产、销售性爱机器人或提供性爱机器人服务的行为,是否应当由刑法加以干预,可否在传播淫秽物品牟利罪、非法经营罪甚至组织卖淫罪等刑法规范中加以分析仍不明朗。由于生产、流通、拥有性爱机器人并没有直接的受害者,是否有必要在刑法中予以规制,在很大程度上取决于前置的社会伦理评价标准,而这一问题在我国学界尚未展开深入探讨与研究。

四、人形机器人的刑法归责体系建构

面对人形机器人大规模部署之后的刑法归责难题,需要探讨兼顾现实与面向未来的应对思路和体系化的理论建构方案。

(一)代表性归责方案

对于智能机器人行为的刑法归责,理论上已有各种不同的思考进路,可以总结为以下几种模式。

其一,代理责任模式。一种代表性的观点将机器人理解为一种无辜代理人,实际强调机器人在犯罪情景中的非独立性地位,此时机器人成为人类的工具。该学说具有明显的英美法系刑法理论印记,实质上接近于大陆法系刑法理论中“间接正犯”。另一种类似的观点,主张比照法人犯罪中的上级责任理论(respondeat superior),将机器人的开发者、所有者、使用者的犯罪意图归罪于机器人,由此仍然由作为“上级”的人类承担刑事责任。该种观点本质上也是“穿透”机器人的行为,将刑事归责回溯到人类。在当下人工智能发展水平之下,代理责任模式具有较多的适用场景。但是随着技术的迅速迭代,机器人具有越来越高的独立性和自主性,代理关系可能会逐渐弱化,变得越来越难以认定。

其二,过失责任模式。该模式意味着按照过失犯的相关理论,对机器人的开发者、所有者、使用者来进行归责。对此,两大法系学者的具体表述也存在差异。受英美刑法理论影响较大的学者提出了“自然可能后果”责任理论。按照该学说,人类在设计、使用机器人时如果应当能够预见到机器人可能引发的损害后果,则人类仍然应当承担责任,其主观心态是过失。所谓的“自然可能后果”,在英美刑法中是一种共犯的扩展处罚理论。而大陆法系的刑法理论往往认为共同犯罪和过失犯是相对分离的命题,因此倾向于在个体犯罪的法教义学框架中,考察机器人背后人类参与者的刑事责任。过失责任模式也是目前机器人刑法中主要依赖的归责路径,但是可能难以应对上述责任离散现象,其具体理论内涵也存在相当程度的革新需求。

其三,严格责任模式。该模式在机器人刑法归责问题中不再要求主观罪过,属于一种典型的扩张处罚的理论范式。在具体实现路径上,严格责任模式也存在不同方案。一种方案通过弱化乃至取消机器人设计者、生产者、使用者的主观罪过要求,来拓展人类的入罪边界。英美法系在与未成年发生性行为、低风险轻微犯罪中仍然部分保留了严格责任。因此,有学者认为,对于机器人应用所带来的损害,可以通过为机器人设计者、生产者、使用者创设轻罪、拓展严格责任来回应。另一种方案则认为,追究人工智能(机器人)犯罪时,不需要考虑人工智能是否有致使他人损害的犯罪意图,无需其对犯罪行为和后果具有认识和意志因素。这种观点实际提出了针对机器人本身的严格责任,但在逻辑上其应当以机器人可以成为独立归责主体作为前提。严格责任模式使得机器人犯罪中的刑法归责变得简单,诸多障碍被化解。然而,严格责任和刑法中的责任原则存在明显抵牾,难以得到广泛认可。或许和人类的归责不同,弱化责任主义原则对机器人带来的消极影响相对较小,但是毕竟这样的归责方案仍然有失公平,尤其是对机器人的处罚最终很可能仍然会转化为人类(如所有者)不应得的损害。

其四,独立责任模式。该模式意味着赋予机器人法律主体地位,让机器人为其犯罪行为独立承担刑事责任。这一模式固然能够较好地应对所谓“报应缺口”的问题,但如上文所述,其理论基础和可行性仍面临极大的争议。例如,有观点非常犀利地指出,直接地肯定机器人独立责任,高估了机器人和人工智能技术的发展现状。

(二)场景化刑法归责体系

上述各种责任模式,都存在一定程度的优势和不足。显然,这些责任模式并不互相排斥。除了严格责任与我国现有刑法体系存在冲突,其他责任模式都可以整合到一个综合性的归责体系之中。随着人形机器人的扩展部署,其所带来的安全风险来自各种不同的行业和情境。同时,人形机器人技术处在不断发展和变化过程中,不同仿人化、智能化程度的人形机器人将会在多种情形中被同时投入使用,由此形成不同性质、不同程度、不同结构的安全风险。这种多元、动态、复杂的风险形成机制,决定了对人形机器人引发的犯罪行为应当因事制宜地采取场景化的刑法归责体系。人工智能和机器人技术对刑法的影响是一个渐进的过程,刑法归责理论同样不宜寻求突变,而是应在传统理论体系的基础上予以适度拓展。代理责任模式和过失责任模式,仍然属于传统刑法理论体系的范畴,而独立责任模式则是对新型刑法归责体系的探索,两者构成以人类为中心和以机器人为中心的两种不同归责方案。这两种路径并非互相对立,其受制于不同的技术发展阶段,应当在场景化的刑法归责体系中统合起来。

1.传统刑法理论的适用与延展

立足于传统刑法法教义学原理,辅之以适当的改良和发展,可以处理当下机器人刑法中的绝大部分归责问题。在面对人形机器人所带来的安全风险和刑法挑战时,关键的问题是避免在责任离散现象中出现明显的处罚漏洞。而在目前的人工智能和机器人技术条件下,现有的刑法教义学原理基本可以应对。在很长一段时间内,人类与人工智能(机器人)仍然处在一种监督、管理关系之中。其具体可包括人类对人工智能体决策的干预(human in the loop)、设计的干预(human on the loop)、整体活动的监管(human in command)。因此,当人形机器人引发法益损害后果时,通常可以通过一定的溯因机制寻找引发后果的原因,并在此基础上进行刑法归责:(1)如果机器人的所有者、使用者故意利用机器人来侵害他人法益,按照相关故意犯罪追究刑事责任;(2)如果机器人的编程出现重大疏忽,或者研发过程中的部件生产、组装出现明显过错,则可以考虑追究编程者、生产者的产品责任;(3)如果生产者、编程者等多个主体对损害结果的发生发挥了不同程度的作用,按照多因一果的模式进行分析,对起主要作用者进行归责,起次要作用者在具体案例中酌情处理;(4)如果机器人的所有者、使用者没有按照正常流程对机器人进行设置和使用,引发对他人法益侵害后果,可能在相关过失犯罪的框架中来进行归责;(5)如果是机器人所有者、使用者在上述情形中引发对自身法益的侵害后果,那么应当在被害人自我答责的理论框架中来予以考察。

与此同时,应当在机器人刑法的技术语境下,重点对可容许的风险和信赖原则进行推演和适度拓展。机器人使用过程中可能出现多种类型的事故,如干涉碰撞、失速异动、挤压拍击、零件故障、电气故障、系统失效等。这些事故在一定条件下,可能引发法益损害后果。对此,不宜采取完全结果导向的思路,或者仅仅对损害后果具有抽象的预见可能性,便要求生产者、编程者承担过失刑事责任,这种做法会不当地压制人工智能新技术和机器人产业的发展。如果机器人所引发的损害后果,处于可以容许的风险之内,则应当阻却刑法归责。风险是否属于可容许的范围,关键在于机器人的部署是否给人类带来了更大的利益,由此在观念上得到了社会的认可。机器人技术和人工智能处在快速发展迭代过程之中,因而对此很难有明确的实定法标准,但以下因素仍然可以重点进行综合参考:(1)行业标准和技术惯例。行业标准和技术惯例虽然并非具有权威效力的规范,但是代表着产业的整体发展水平和通常做法。如果机器人生产、编程符合了行业标准和技术惯例,即使行为引发了风险,那么这种风险被社会所认可的概率相对较高。(2)应用领域的风险等级。2021年4月欧盟委员会提出的《人工智能法案》,对人工智能提出的监管和法律框架以不同应用领域、不同程度风险等级为标准来设置。其区分了禁止的人工智能行为、高风险人工智能系统、其他人工智能系统,并分别设置了不同的法律义务和监管要求。同样,智能人形机器人应用领域的风险等级越高,风险被法律和社会所容许的标准和条件就越高。(3)受益对象和参与主体。如果人工智能系统危害到了完全不相关的他人,那么风险被容许的可能性,就低于用户自愿参与这种风险行为的情形。

在人机互动逐渐日常化、深度化的背景下,信赖原则也应当适当突破自然人与自然人之间的范围。对于符合标准、正常投入流通的人形机器人,人类也可对其行动方式、操作流程产生合理信赖。对于人形机器人引发法益侵害后果的因果流程,如果人类基于合理信赖而参与其中,那么应当阻却损害后果对人类的归责。反之,对于人类引发法益侵害后果的因果流程,人形机器人以算法为基础产生合理“信赖”参与其中,也应当阻却损害后果对人形机器人以及相关人类主体(如生产者、编程者、使用者)的归责。需要注意的是,在一些异常性、紧急性状况中,如果人类的判断明显不同于人形机器人的正常算法逻辑,那么信任原则不能再简单套用。此外,在机器人和机器人之间,也可以在一定条件下存在信赖原则的适用空间。例如,甲方机器人按照正常流程基于“信赖”参与乙方机器人的互动,如果因乙方机器人出现明显的疏忽或过错引发法益损害后果,同样应当阻却损害结果对甲方机器人及其相关人类主体的归责。

2.机器人责任主体地位的理论可能

面对技术和社会的不断进步,刑法体系应当持发展的立场,可以考虑在未来有条件地承认人形机器人独立责任主体地位的可能性。

其一,之所以学界关于机器人能否成为刑事责任主体存在巨大争议,重要原因之一在于学者们对人工智能和机器人技术的发展现状和前景持不同态度。持相对保守立场的学者,更多看到的是人工智能目前所存在的技术瓶颈。但是如果技术继续朝着强人工智能的方向发展,部分学者对此问题也并不全然持否定立场。事实上,法学学者不能过于低估技术发展的速度。技术专家指出,精神不过是大脑功能的一个标签而已,它并不独立于大脑细胞而存在,神经元也不过就是细胞而已,并没有神秘力量控制神经细胞行为,因此智能机器完全可能。20世纪90年代以后,机器人发展前进了一大步,出现了具有半感受范式的社会机器人,而一些先锋研究成果表明,可能在人工机器中实现内在自我认知。现代神经科学不断地表明,意识正在“祛魅”,它并非人类所独有,是一种由内向外的“预测加工”,人工智能和机器人技术的发展完全有可能带来看似是意识的新技术。雷·库兹韦尔(Ray Kurzweil)提出著名的加速回报定律更是指出,人工智能技术呈指数增长而非线性增长,他预测到2029年人类和机器之间的鸿沟不再,机器可以通过图灵测试,具备由人类智力逆向工程发展而来的性格、能力和知识。近期,OpenAI所发布的ChatGPT和Sora更是让人们看到了越来越高的这种可能性。当然,与此同时,对人工智能和机器人技术发展速度持怀疑的学者也不在少数。但总的来说,法学学者宜对技术发展保持开放的心态,适度前瞻性地探讨可能发生的刑法归责范式转换,反思传统刑法理论,由此也指引技术朝着更加实质合理的方向发展。

其二,面对人—机器人深度嵌套社会中可能出现的责任离散现象,对传统刑法教义学理论的延展与调适有其限度。如果法律补救的最终目的是鼓励好的行为、否定坏的行为,那么有的时候仅仅处罚智能机器人的所有者、设计者就并不总是有道理,因为他们可能没有实施错误的行为。对人工智能涉及的损害结果进行回溯追责,在复杂的情形中,可能面临着事实操作层面和法律规范评价层面的不可还原性。在共同发生作用的事实因素过多的场合,难以从中明确法律评价的重点。而即使能够相对明确,其所创设的轻微风险是否已经达到了刑法入罪的实质要求,在处罚必要性上仍然存疑。在前述聊天机器人Tay案中,这样的情况已经出现了苗头。对此,有学者主张专门设置发售危险产品的抽象危险犯,将损害结果的出现作为客观处罚条件。这种做法虽然不同于严格责任,但仍然有接近于严格责任的倾向,可能存在过度严苛的问题。在机器人的生产者、设计者已经尽到了当前社会所能达到的客观注意义务时,如果出现了严重的损害后果,仍然扩张性地适用诸如过失犯、抽象危险犯、客观处罚条件乃至严格责任这样的理论来对他们进行刑事归责,固然回应了被害人和社会的报应期待,但实际上产生了使机器人的生产者、设计者沦为替罪羊的风险。这不仅会削弱责任原则的实际效果,而且长远来看可能会对机器人和人工智能技术的发展产生寒蝉效应。

其三,能否承认机器人责任主体地位,涉及刑法归责中基本思考方法转向的问题。不论是机器人是否具有自由意志、是否具有责任能力,抑或是能否成为适格受罚对象,理论上之所以形成两极化的争议,除了对人工智能技术发展的预期不同,主要在于对刑法归责采取的是一种偏向本体论还是接近于功能主义的思考方法。

首先,就人类自由意志的有无抑或存在形式而言,随着神经科学研究的深入,至今仍然无法形成基本定论。从神经科学的角度来观察刑法,刑法是否可以建立在所谓自由意志上是存疑的。在当下的刑法理论中,逐渐不再格外地强调这样一种本体论上的事实前提,因为其无法得到可靠的确证。同样,是否具有自由意志并不会成为承认机器人责任主体地位的必然前提。

其次,法律(包括刑法)中的人格,则更非事实描述性的概念。人格并不是由某种神秘形而上学属性所决定的东西,而是一种在社会中被建构、协商和赋予的资格。最为重要的一个例证,就是很多国家在民事法和刑事法中都赋予了公司拟制的法律人格。公司当然不可能具备人在事实上的各种属性,但在人类社会的交往中,功能性地赋予其类似于人的主体地位能够使法律关系更加符合社会的发展需要。换言之,法律人格的判断是一种以权利义务资格为依据的实质化标准,如果我们赋予机器人或人工智能体权利义务,它也可以具备法律人格。在方法论上,将某些非个人组织予以人格化,是法律史上一种普遍的法律推理的思维方法,而对具备高度智能的类人机器人则更是可以沿用同样的逻辑。反对性的意见非常细致地指出了公司和机器人在事实层面的差异,即公司背后始终有人的因素在发挥作用。但是,一方面,在很长一段时间内,机器人背后同样存在人类(如设计者、所有者、使用者)的影响。另一方面,人类的联系仍然是一种事实描述性的因素,它并非规范地赋予人格的必然要求。刑法中的人格是一种社会建构性的概念,而并非必须可以被还原为自然事实。

再次,刑法中的罪责,同样也应当在功能主义的视角下加以重新审视。如果采取一种绝对人类中心主义的立场,完全从本体论来界定罪责概念,那么当然只有人类可能成为刑事责任的主体。不论人工智能如何发展,人形机器人始终只是对高级碳基生物形式的一种模仿,而不可能成为人类。否定机器人责任主体可能性的观点,往往倾向于详细地论证机器人不具有像人一样的感知能力。但是,本体论上的人类感知,并非罪责归属的绝对前提。刑法上的罪责,并非基于一种生物性的自由,而是作为一种社会事实的自由归属,这为机器人的刑事责任提供了可能。换言之,罪责并非先验的概念,它也是一种建构性的理论。正因如此,没有人类感知和生命的公司成为刑法上的独立责任主体,在逻辑上才能成立。更何况,就像企业具有内部决策机制因而形成了故意,智能机器人同样可以根据这种方式具有类似的故意。

最后,如果贯彻了功能主义的思考,机器人接受刑罚的意义也并不会形成对其归责的障碍。如果人们在观念上接受了机器人的独立主体地位,那么对其科处刑罚就可能实现相应刑罚目的。尤其是在高度仿人的人形机器人深度融入人类社会以后,这种观念上的趋势很可能会逐渐增强。有学者担心肯定机器人的处罚,可能会导致刑事责任由人类向机器转移,与人工智能风险的刑法规制背道而驰。但如上所言,机器人的刑法归责路径与人类的刑法归责路径并非替代关系,二者并不互相排斥,因此这种刑事政策上的担忧并无必要。通过对违反刑法的机器人科处刑罚,可以功能性地维护刑法规范的效力,为受害者乃至整个社会提供正当感和安全感,也间接促使机器人的开发者、所有者以符合社会需要的方式调整自己的行为。在刑罚具体实现形式上可能仍然需要深入讨论,但既然能够对公司进行刑事处罚,那么对机器人的处罚也并非不可能。而且,机器人具备了更高的自主性和智能性,对其科处的刑罚形式甚至可以不仅仅是罚金。

总之,对机器人进行独立归责,并不需要机器人成为人。如果实现从本体论向功能主义的转变,那么未来有条件地承认智能机器人的独立责任主体地位在逻辑上可以成立。在人机交互逐渐深入的语境下,这种观念的转变可能是人工智能时代刑法归责体系未来将会面临的根本性问题之一。当然,如前所述,这种可能性和必要性仍然在很大程度上取决于今后人工智能和机器人技术的发展程度和状况。

综上,在关于人形机器人的场景化归责体系之中,以人类为中心的传统刑法理论和以机器人为中心的新型刑法理论构成刑法归责坐标轴中纵向和横向两个基本维度。在纵向维度上,生产者、设计者、使用者对人形机器人的支配程度和控制意愿越强,人形机器人的客体化工具属性就越突出,就更可能按照代理责任模式来进行刑法归责。而当人类对人形机器人仅具有相对较弱的支配程度和控制意愿,人形机器人的客体化产品属性就较为明显,更为容易按照过失责任模式来进行刑法归责。当然,在此维度上,以支配和控制程度作为参考依据的刑法归责,应当是一种规范性而非纯粹事实性的判断,其中新技术条件下的风险可容许性、社会信任机制发挥着重要的调节作用。如果上述规范性的支配程度和控制意愿非常薄弱,则接近纵轴的原点宜对人类行为作无罪化处理。在横向维度上,人形机器人的智能化、仿人化程度越高,人形机器人的主体性地位就越强,就越可能被评价为独立刑法归责主体。在此维度上,一方面,发挥基础作用的是人工智能和机器人的技术发展水平,其在很大程度上将决定传统刑法归责体系的缺口;另一方面,人类社会中法律关系的功能性建构需要也发挥着关键作用,其通过功能主义的思路弥补和发展传统刑法归责体系。此外,需要强调的是,虽然纵轴和横轴代表两种不同方向的刑法归责思路,但二者统合在整体的场景化归责体系之中。就好比追究公司刑事责任与个人刑事责任并不矛盾,甚至二者经常同时存在,人类的刑法归责与人形机器人的刑法归责在未来既可能是择一关系也可能并列共存。

(三)开放式刑法归责体系

场景化刑法归责体系为人形机器人的治理提供了归责路径的指引,但由于人形机器人形成了多元性、特定领域导向的新型安全风险,在一些前沿的领域和复杂的情形中,既有的刑法知识体系尚无具体应对和处置方案。因此,除了归责路径的探索之外,合理刑法归责的实现在内容上还依赖于外部性、实质化的依据作为支持,需要对其他法律规范评价和发展中的伦理标准保持协同和开放。

1.部门法之间的协同

如前所述,刑法与前置法缺乏充分有效的沟通机制,使得军事、警务、家政、护理、酒店等领域人形机器人的相关安全风险及其刑法规制难以得到稳定的规范评价。因此,刑法与其他领域法律规范的协同,成为机器人相关犯罪刑法归责评价中的重要问题。由于刑法属于保障法,具有最后手段性的特征,应当尽量将前置法中的基本原则作为考察刑事责任的前提,避免刑法突破前置法领域共识的现象,同时将前置法中的一些具体要求作为实质化理论资源融入刑法教义学体系。

在军事领域,人形机器人的设计与使用面临国际人道法的诸多限制,应当将国际人道法的部分原理纳入刑法归责评价之中。虽然将人工智能机器人运用于战场逐渐开始成为一些国家的选择,但理论上对此存在强烈的担忧。使用军事机器人可以减少人类直接近距离参战,降低了战争成本和门槛,可能反过来导致更多武装冲突,减弱士兵对生命的尊重,从而形成对战争中人道主义原则的挑战。因此,军事机器人的设计、研发与使用,同样应当严格落实国际人道法中的基本原则,才能具备基本的正当性。例如,军事机器人的编程和生产,应当使机器人能够遵守区别对待原则,将合法目标和非法目标、战斗人员与平民、军用设施和民用设施进行不同处理;应当使其能够实现比例相称原则,只能使用与攻击目标比例相当的武力。如果没有达到上述前置法要求和标准,那么这些因素将成为(尤其是在国际刑法领域)对相关主体进行刑事归责的重要依据。

在警务领域,能否将人形机器人投入执法活动,机器人在警务活动中使用暴力(尤其是致命性暴力)的边界,首先取决于行政法中一系列基本原则的判断。如果机器人未来能够具有一定自主性地参与执法任务,那么行政法中的比例原则、越权无效等基本原则,包括警察法所规定的警察使用武器的基本流程和要求,不同暴力程度警械手段的层级化设置,都应当内嵌于人形机器人的算法之中。否则,在产生不当侵害后果时,机器人的设计者、使用者等主体可能承担人身权利侵害或职务犯罪等领域的刑事责任。

在家政、护理、酒店等领域,人形机器人与人类日常起居生活处在一种非常紧密的相互关系之中,并且存在大量的信息和数据处理需求,因而人形机器人的研发、设计和使用,应当严格符合信息和数据相关保护法律的要求。例如,欧洲通用数据保护条例、我国数据保护法、个人信息保护法所确认的合法、正当、必要和诚信原则,公开透明原则,目的限制原则,必要性原则等,都应当内置于人形机器人的信息和数据处理机制之中。此外,对敏感个人信息的处理和保护,则应当对人形机器人相应设置更高的义务标准和安全机制。我国刑法侵犯公民个人信息罪中的“违反国家有关规定”,以及非法获取计算机信息系统数据罪中“违反国家规定”“未经授权或者超越授权”等核心要件的认定,便需要实质性地考察上述前置法中基本原则的落实情况。违背上述原则,存在侵犯人类隐私、信息和数据权利的行为,情节严重的则可能构成相应犯罪。

2.机器人伦理的探索

形态与智能高度仿人的人形机器人进入人类社会后,将会极大地挑战传统的伦理学标准,这对刑法归责的评价同样具有深层影响。悬而未决的伦理评价标准,使得人形机器人在部分领域(尤其是在性相关犯罪问题上)的刑法评价非常困难。虽然违背伦理道德的行为不一定构成违法犯罪,但是相当一部分行为的刑法评价具有内在的伦理道德基础。例如,如果社会承认一种相对开放的性观念,私密的聚众淫乱就不会作为犯罪论处。反之,则可能形成一种以伦理道德评价为基础的刑事责任。在机器人刑法领域这种现象尤为明显,某些类型的人形机器人能否允许以及通过何种方式设计、生产、流通、使用,通过何种方式得到保护,都有赖于在刑法归责评价中纳入机器人伦理的实质考察。“淫秽物品”“卖淫”这些刑法概念的规范内涵,也需要借助机器人伦理的评价,才能在新的人—机嵌套型社会语境中得到澄清。

阿西莫夫在1942年发表的《转圈圈》(Runaround)中提出的机器人学三定律,属于最为经典的机器人伦理标准:(1)机器人不得伤害个人(a huaman being),或者因不作为而使个人受到伤害;(2)机器人必须服从人类赋予它的指令,除非该指令和第一定律产生冲突;(3)在不违反第一和第二定律的情况下,机器人必须保护自己。机器人学三定律虽然在科幻文学作品中被提出,但至今仍被学术界认为是机器人学的伦理性纲领,将其作为机器人开发的准则。然而,阿西莫夫的机器人学三定律只是一个粗糙的基本伦理框架,理论上不乏相当多的质疑和改良意见。显然,经典的阿西莫夫机器人学三定律在复杂多元的应用场景中,会出现难以应对甚至自相矛盾的局面。例如,在警务或军事领域部署的人形机器人,如果它具有杀人的功能,便会直接与第一定律相冲突,即便它服务于某种人类认为具有正当性的理由。因此,目前很多国家都在积极探索和发展更加综合性、开放性的机器人伦理标准。例如,2005年韩国颁布了《韩国机器人伦理学宪章》,2019年欧盟人工智能高级别专家组发布了《可信赖人工智能伦理指南》等。在我国,也陆续出台了一些官方和非官方的人工智能与机器人伦理规范。在上述各种版本的人工智能和机器人伦理标准中,一些基本原则逐渐成为共识,如尊重和保护人的尊严与权利、保障可解释性和透明度、公平性(不歧视)原则等。这些基本的机器人伦理原则,不仅是人形机器人设计、生产、使用的指导标准,而且也应当内化于人形机器人刑法的具体规范评价之中。

在性爱机器人问题上,鲜明地体现了机器人伦理对刑法评价的关键作用。性爱机器人是否符合机器人伦理,将直接决定其能否在法律(包括刑法)上被允许生产、流通甚至使用。肯定的意见认为,性爱机器人能够缓解性压抑和孤独,起到陪伴作用,减少一些人从事非法、危险性活动(如嫖娼甚至性犯罪)的风险,避免潜在伤害。但是,否定的观点认为,目前流通的性爱机器人实际变向地扭曲了女性的性同意问题,贬低女性人格,导致男性疏远人类伴侣,形成一种幻觉和依赖,甚至对人类文明的未来形成冲击。有学者甚至发起了反对性爱机器人运动,主张性爱机器人与卖淫行为在物化女性这一点上有相似之处,致力于推动性爱机器人的犯罪化,但理论上对此存在极大争议。正因为性爱机器人存在着巨大的伦理争议,尤其是可能潜存的负面效应,我国的法律(包括刑法)应当对性爱机器人的设计、生产、流通持慎重的态度。对此,应当区分一般的性爱机器人和儿童性爱机器人的法律评价。对于儿童性爱机器人,由于其明显严重地违背机器人伦理,刑法应当考虑明确予以禁止。有学者认为,制造、使用儿童性爱机器人,虽然没有直接对儿童形成外在性侵害,但实际上通过虚拟的方式复制这种行为模式,这在道德上是错误的,可以成为刑法规制的对象。不过,不少国家的现行法律规范,实际上不能准确地涵盖这类行为。在美国,虽然存在一系列禁止儿童色情的法律,但是关于儿童性爱玩偶和机器人的刑法规定仍然存在漏洞。对此,美国众议院于2018年通过了《遏制现实剥削性爱电子恋童癖机器人法案》(简称CREEPER),旨在拓宽已有的淫秽物品罪刑规范的适用范围。该法案规定,进口或运输任何具有未成年特征或类似特征,用于性行为的玩偶、人体模型或机器人,构成犯罪。其后,该法案在美国参议院受阻,2021年CREEPER2.0版又被提出,意图进一步将持有或买卖上述物品的行为也予以犯罪化。在英国现有的法律框架下,制造、分发、持有儿童性爱娃娃和机器人的行为,也不能被完整地规制,因此有学者主张在《性犯罪法案》中增设新罪予以补充。在我国,关于性爱机器人的伦理研究寥寥无几,对刑法可能产生的影响也尚未展开讨论。事实上,我国已经开始出现此类问题的雏形,据报道,一些地方已经出现“硅胶娃娃体验馆”,但是部分被有关部门查封。鉴于性爱机器人可能带来的挑战,不远的未来我们需要深入研究机器人伦理,将其作为刑法归责评价的前提,由此进一步判断生产、流通、使用性爱机器人的行为是否在特定情形中存在实际法益侵害,并重新评估我国刑法中性相关犯罪(尤其是淫秽物品犯罪)的立法与司法适用边界。

结语

随着机器人和人工智能技术日新月异的发展,作为具身智能的人形机器人在应用场景上逐渐拓展,人与机器人深度交互的时代逐渐临近。具有高度仿人性、智能性特征的人形机器人除了对传统人身、财产权利安全可能形成隐患,在军事和警务领域,隐私、信息和数据安全,以及性相关犯罪等方面,也带来了很多新的法律挑战。由此,在人形机器人的刑法归责中,可能出现刑事责任离散,责任主体地位不明,刑法与前置法缺乏沟通,伦理评价标准悬而未决等一系列难题。在理论上,目前主要存在代理责任、过失责任、严格责任、独立责任四种刑法归责模式,其在不同程度上都存在各自的优势与不足。不同智能程度的人形机器人在多种多样的情形中被部署,其形成了多元、复杂、动态的安全风险。在此背景下,除了严格责任之外,其他几种责任模式都可以被统合到场景化的刑法归责体系中。在当前的技术发展阶段,传统刑法教义学原理可以处理机器人刑法中绝大部分的归责问题。但是,立足于人形机器人的智能属性,应当在新的技术条件下对可容许风险和信赖原则等原理予以重新梳理和适度延展。放眼于未来,法律学者不能低估人工智能和机器人技术的发展速度。应给予肯定,尤其是面对可能出现的责任离散现象,可以在未来有条件地肯定智能人形机器人独立责任主体的可能性。对此,需要倡导建构式的理论应对机制,从本体论转向功能主义视角,重新思考刑法理论体系中自由意志、人格、责任和刑罚等概念的意义。面对人形机器人所带来的跨领域新型安全风险,刑法归责体系应当对其他法律领域的规范评价和尚待深入探讨的机器人伦理保持开放,协同不同部门法之间的关系,将机器人伦理融入机器人刑法的责任判断框架之中。

(本文来源于《东方法学》2024年第3期)

专题统筹:秦前松