中国实践
东方法学特稿|刘艳红:人工智能司法安全风险的算法中心治理模式
2024-07-04 20:18  点击:20398

作者:刘艳红,中国政法大学刑事司法学院教授、博士生导师。

人工智能时代的技术革命引发第三次产业革命,深刻改变着生产要素配置和社会结构秩序,对国家治理体系和治理能力现代化转型提出紧迫需求。党的十八大以来,司法领域信息化和数智化建设成效显著,通过大数据、云计算、区块链、人工智能等现代技术手段的科技赋能,智慧司法的车轮滚滚向前,不仅带来司法程序和诉讼参与方式的变革,还更深层地影响着司法逻辑和法治理念。总体而言,人工智能司法应用场景主要包括诉讼服务、在线诉讼、事务辅助、决策辅助、司法管理等方面,呈现应用广度和深度逐步加强的趋势,司法全流程中人工相对于智能的权重配比逐渐下调。例如,司法系统信息化初期建设成果是以立案缴费、案卷调阅、公文传递、签章送达等特定行为的电子化为核心,本质上是运用互联网技术摆脱物理空间尤其是纸质媒介的束缚。在此过程中,诉讼便利和司法效率虽然有所加强,但智能化程度普遍较低,未对诉讼规则和司法模式产生实质影响,而我国既有的司法模式的低效问题亟待改善,在杜绝司法腐败、司法滥权方面也存在不足,所以增强人工智能来提升司法效率的需求已经迫在眉睫。鉴于此,进入智慧司法4.0时代,人工智能实际应用场景扩展至侦查、起诉、审判、执行等司法全流程、全场景,尤其是类案推送、量刑预测、偏离预警、文书生成、自动查控等系统的投入使用,标志着人工智能技术已经深度参与程序控制、实体决策、监督检查等司法运行的核心领域。

整体来看,以智慧司法大脑和司法数据中台为驱动,分析式和生成式人工智能技术得到大规模应用,新时代人工智能司法使数字法院、云端法庭、机器人法官成为现实,“代码即法律”和“算法即正义”的论断不再是天方夜谭,而是在可预期时间内必将呈现的智慧法治图景。习近平总书记指出,安全是发展的基础,要更好统筹发展和安全,以新安全格局保障新发展格局。随着人工智能司法技术装备发展和应用场景深化,相应的人工智能司法安全风险也将成为司法实践所必须直面回应的现实问题,最高人民法院2022年印发《关于规范和加强人工智能司法应用的意见》(以下简称《人工智能司法意见》),将安全合法原则作为首要基本原则,规定“坚持总体国家安全观,禁止使用不符合法律法规的人工智能技术和产品,司法人工智能产品和服务必须依法研发、部署和运行,不得损害国家安全,不得侵犯合法权益,确保国家秘密、网络安全、数据安全和个人信息不受侵害,保护个人隐私,促进人机和谐友好,努力提供安全、合法、高效的智能化司法服务”。有效安全治理的本质是有效风险治理,“以风险为导向”是其核心要求,人工智能司法安全治理需要在解构风险内核和风险成因的基础上确立类型化、结构化、体系化的治理方略。由此,对人工智能司法安全风险的防范需要首先厘清人工智能司法的本质,并在此基础上揭示出人工智能司法的实质风险,然后才能提出与之对应的治理之策。

一、人工智能司法的本质:法官后撤与算法司法

公正与效率是司法审判工作永恒的主题,也是人工智能司法应用的基本价值遵循。在公正和效率之间,后者是人工智能司法发展的原始动力。伴随着人工智能技术的进步,人工智能司法应用逐渐从自动化办公走向自动化决策,类案同判、量刑预测、文书生成等高智能应用场景开始对定罪权、量刑权、程序控制权、审判监督权等司法权力的行使产生介入式影响,由此,算法将穿透效率的面纱,浮出水面,以法官后撤为特征的算法司法构成了人工智能司法的本质。

(一)司法效率与算法前置

一直以来,我国“司法的职能构造和角色安排很大程度上取决于制度设计者的现实需求与选择而非司法的自我定位”。这种制度设计所导致的问题是,司法审判人员的配置可能会脱离司法的现实需求,并致使同一法院内的审判人员“闲忙不均”,进而影响司法效率的提升。更为重要的是,面对“诉讼爆炸”时代的到来以及数字智能技术的进步所赋能效率提升的全新可能,如何借助数字智能技术提升司法效率,进而推进司法体制改革就成为当前所必须予以回应的时代课题。也正因如此,党的十八大以来,最高人民法院就将司法改革与司法信息化建设作为推动人民法院工作发展的“车之两轮、鸟之两翼”。在此基础上,借助数字智能技术优化审判人员配置,提升司法效率就成为数字智能技术赋能司法改革的逻辑起点与实践终点。事实也证明,“立体的诉讼服务体系和法院办公体系实现人民法院文书自动生成、类案智能推送、电子卷宗自动归档,将办案法官从琐碎、重复性的事务中解放出来”。借助计算机、互联网等数字化技术实现对审判设备的更新不仅有助于实现对审判人员的管理优化,还能促使办案人员在整个二审、再审案件中依靠电子案卷直接查阅、了解案情,对审判效率的改善具有显著作用。

当前,伴随着生成式人工智能的进步,以大语言模型为代表的先进算法在促进司法效率提升的同时,也逐渐从“幕后”走向“台前”,客观上已经涉及定罪量刑、法律适用以及文书撰写等司法核心业务。例如,法律逻辑推理一直被认为是司法业务的核心,是推进案件事实认定与法律适用的关键内容。然而,生成式人工智能借助思维链算法使得智能技术已经掌握了一定的逻辑推理能力。以Chat-GPT为例,研发人员通过思维链这一算法的调用,不仅在基准测试中达到了高度的准确性,甚至还超过了使用验证器微调的GPT-3模型,显著提高大型语言模型执行复杂推理的能力。具体而言,在思维链的加持下,模型将问题分解为一系列的分步推理,根据前一步骤结果与当前问题要求共同推断下一步骤。通过这种逐步推理的方式,模型可以逐渐获得更多信息,并在整个推理过程中累积正确的推断,从而大幅度提升模型在复杂推理时的准确率。这也就意味着,以生成式人工智能为主要形式的先进算法已经突破了基于数据之间相关性的能力局限,可以做出超出算法预设的可期结果,具备了推理能力等意思表示特征。事实上,凭借着算法在逻辑推理能力上的显著提升,生成式人工智能在人机问答、文本摘要、建议辅助等方面已经达到甚至超过了人类水平,具备了案件研究与复杂法律事实模式下的分析能力。再例如,“裁判文书撰写是案件审理的最后一个重要环节,也是最耗费时间的一项工作。裁判文书的质量与当事人对裁判结果的接受度呈正相关关系,因此,在决定案件的裁判结论后,法官的主要任务便是撰写一份高质量的裁判文书”。因而,能否流畅、准确以及高质量地撰写一份裁判文书也成为衡量法官能力强弱的一项重要标志。实践中,以大语言模型为代表的算法在文字处理能力上的跃升不仅能够实现具体内容的法律文书起草,而且还能实现对简单案件事实的理解,并正确援引诉讼请求的相关法律条文。再如,面对司法裁判中的价值判断这一核心领域,通过循环式地强化学习算法,将反馈模型和原始模型相链接,能够不断地促使原始模型逐渐迭代升级,直至“脱胎换骨”彻底掌握人类偏好,进而实现算法模型的表述、内在价值与人类常识、价值观的“对齐”。

总之,虽然有观点提出批评,认为现阶段智慧系统的运用受制于司法人员主观认识、技术成熟度以及可适用面狭窄等因素而不够完善,但这些批评并不会从价值论上否定人工智能司法的效率功能。相反,伴随着智能技术的进步,算法正在通过对司法效率的赋能而前置,并进入司法的核心领域,具备了一定的司法决策能力。

(二)法官后撤与算法司法

伴随着算法前置的日益显著,法官作为司法主体的角色后撤将成为人工智能司法的基本特征,因而,人工智能司法的本质就是因法官后撤而引起的算法司法。

算法是指实现最优模型的解法,算法司法完全可以复制人类法官司法的“外观”,一定程度上辅助或代替人类进行司法判断,尤其是,在权力行使规则清晰和可预测性结果明确的司法领域,采用算法解决司法问题,通过算法连通条件输入端和结论输出端,实现算法增强的自动化司法,完全具有技术上的可行性。尽管不同类型的人工智能司法有着差异化的输入端内容和输出端内容,但根本的区别不在于输入与输出的不同,而是算法解法的不同,在人工智能司法裁判领域,机器裁判模型构造的过程就是将算法知识和法律数据相结合的过程。其中,通过数据反映司法裁判规律、通过算法挖掘数据相关性、在测试集内测试模型性能是机器裁判的三个主要环节。在此环节中,虽然算法司法的知识来源是传统司法,但在机器习得司法裁判的基本规律之后,就能实现“像法官一样行为”,至于能否最终实现“像法官一样裁判”,则取决于算法水平是否足以支撑其“像法官一样思考”。换言之,算法的司法应用将不可避免地导致法官后撤。也即,相较于完全由法官独占的裁判活动,算法的介入将导致法官不可避免地面临职权的分解,而这种分解的过程也正是法官后撤的过程。

当然,也有学者指出,人工智能有助于实现司法的形式正义,但对需要法官裁判智慧的实质正义却仍是望尘莫及。但问题在于,这一论断并不是对法官后撤的否定,而是对法官后撤程度的质疑。换言之,算法在司法中的应用只会在一定程度上分解人类法官的裁判职能,但并不会完全替代,法官后撤不是法官离场。法官后撤的本质是算法对司法裁判权的部分替代。例如,司法实践中大多数裁判都是对于“法律规范→案件事实→裁判结论”这一单调推理逻辑的运用。在此基础上,司法裁判的首要步骤是,准确找寻与案件事实相对应的法律规范,并将其准确应用于案件事实中去。在此过程中,将法律规范适用于案件事实中去既是完成司法裁判活动的关键步骤,也是推进司法裁判顺利进行的先决条件。而保证法律规范适用的准确性正是算法的优势所在,相较于完全由人类法官进行的司法裁判,算法对于法律规范检索程度的高低只会影响法官后撤的程度,而不是对人类法官裁判职能分解的绝对否定。再例如,智慧量刑系统作为能够完成刑罚裁量的人工智能机器,通过算法产生量刑结论,在占据司法主导地位时成为量刑法官,在处于司法辅助地位时可以提供量刑参考,从而在量刑时实现犯罪圈均衡化与刑罚轻缓化的目标,避免量刑结果苛重,在承担司法监督任务时则表现为同案不同判预警机制。

总之,无论出于何种地位,人工智能司法中的算法未发生根本改变,始终发挥着“像法官一样量刑”的替代性功能,法官后撤是人工智能司法的基本特征,算法司法是人工智能司法的本质所在。

(三)算法正义与形式理性

算法一旦进入司法领域,人工智能司法的正当性就必然受到质疑和批判,这些质疑和批判触及人工智能司法的价值根基,直指司法正义本身,也就是算法司法的正义风险。

司法的价值根基在于正义,人工智能司法经受的价值批判也来源于司法正义,当诉讼程序经过数字化改造之后,学界普遍认为算法决策能够通过程序性、公式化计算来优化诉讼程序和处理简单案件,却难以处理重大的复杂疑难案件;它能够促进形式正义,却很难实现实质正义。人工智能司法虽然具有人类法官不可比拟的优势,但也具有不可克服的缺陷,无法应对不确定性,不具有人类常识常情,以及无法进行价值判断。张军大法官也曾对计算机量刑作出精辟分析,认为“每一个案件都不同,把各种情形的因素用软件输入,最后得出一个量刑的情形,这个很难符合具体的现实的案件”。人工智能司法确实存在语料和数据的获取能力有限,无法穷尽司法场景及其考量因素的问题,法官在司法裁判中依据的案件事实、法律规则、个体经验、自由心证、情理考量等内容很难通过结构化数据表达使机器算法习得。例如,在刑事审判参考指导案例王某旺非法经营案中,被告人王某旺销售假冒注册商标的伪劣卷烟的事实清楚,已经构成非法经营罪,依法应在五年以上有期徒刑的法定刑幅度量刑,但考虑其女儿急需进行骨髓移植手术,王某旺为优选供髓者,且为家庭经济收入的唯一来源,最高人民法院核准对王某旺在法定刑以下判处刑罚并宣告缓刑。很显然,人工智能司法不可能作出此类“法外开恩”的决策,由于无法实现情理法的融合与平衡,因而人工智能司法被认为有损实质正义。

问题在于,这种质疑并未触及算法正义的本质,也未对形式正义与实质正义的关系作出正确理解。事实上,司法正义包括形式正义、实质正义和程序正义这三个逻辑结构,而算法正义不仅未对司法正义造成冲击,而且契合传统司法正义一以贯之的形式理性价值根基,人工智能司法并非只能实现形式正义而无法满足实质正义要求,因为形式理性与形式正义的概念内涵存在根本区别而不能加以混同。形式正义又称为分配的正义,也就是同等情况同等对待、不同情况不同对待,形式正义导向同案同判,但对裁判结果是否符合罚当其罪的实质要求则在所不问;实质正义则融入结果公正的实质判断,要求作出符合罪责刑相适应原则和比例原则的处罚裁断。算法正义绝不是简单的形式正义,算法主导的自动化决策机制能够有效排除外界因素干扰以严格达成规范符合,实现形式正义和可预测的正义的同时,也可以将实质正义需要的社会危害性和处罚结果的比例考量通过要素化和结构化数据标注融入算法之中,进而实现对实质正义的追求。例如,具有深度学习能力的人工智能系统甚至可以不受限于既往裁判经验而自动生成新的要素标注。前文也已提及,受益于大语言模式算法的助力,生成式人工智能已经能够实现逻辑推理与价值对齐,体现出对实质正义的内在要求。因而,算法正义的真正内涵是一种形式理性主导的实质正义。原因在于,在形式理性与实质理性之间,形式理性具有优位原则,是第一位的,实质理性是第二位的,只能在坚持形式理性的前提下追求实质理性。在此基础上,将法律规范遵守作为首要价值追求并基于价值规范进行实质矫正的形式理性显然能够囊括形式正义与实质正义,能够实现对算法正义实质内涵的准确概括。

总体而言,人工智能司法的本质是算法司法,当算法能够实现对权利义务以及责任的分配时,对于算法的质疑与批判也就随之而来。但问题在于,基于形式正义与实质正义的区分否定算法并未触及算法正义的关键。事实上,鉴于公正司法是维护社会公平正义的最后一道防线,所以必须继续深化司法体制综合配套改革,借助算法实现对法律规范遵循的形式理性才是算法正义的核心所在。

二、人工智能司法的风险:算法正义的三重危机

算法正义包含了形式正义和实质正义的内涵,具有传统司法正义的形式理性特征,但是,人工智能司法与传统司法模式毕竟存在诸多区别,正是这些差异使算法正义出现了危机,成为发生人工智能司法安全风险的根源,因此要基于应用场景分析安全风险。在学界以往的研究中,人工智能司法安全风险的画像已经初步成型,如在技术维度存在个人信息深度卷入、场景影响高度不确定、既有秩序面临高烈度冲击、公众遭遇泛在威胁等风险,给司法体系带来司法固有属性被消解、法官主体地位被削弱、司法改革目标被替代、司法改革结果失控等冲击,但真正考察算法正义的实质危机,还需要从司法正义的基本维度出发进行研究。

(一)算法正义的程序风险

一般认为,审判程序的参与性、中立性、对等性等是程序内在价值的基本构成要素。然而,遵循法律规范的算法正义则在一定程度上对程序正义的内在要素构成了挑战,进而引发算法正义的程序风险。

一是,算法正义可能消解了司法程序的参与性。程序的参与性体现在两个方面:一方面,诉讼双方能够在时间与空间维度有充分的机会参与到司法裁判的制作过程中去,可以自由地表达观点、呈现证据。另一方面,能够实现对司法裁判结果的实质性反馈,通过辩论实现对司法裁判结果制作的参与。例如,我国现行的刑事诉讼法第182条第3款关于向人民检察院、当事人、辩护人、诉讼代理人、证人、鉴定人和翻译人员等告知案由、开庭时间、地点的规定是对诉讼双方参与时间与空间的保障。刑事诉讼法第186条关于公诉人宣读起诉书,辩护人、诉讼代理人发问的规定是对程序参与实质性的保障。然而,人工智能司法对效率的极致追求则在一定程度上压缩了正当程序的环节,忽略了民众与司法沟通的桥梁纽带,基于算法的自动化裁判当相关信息输入的那一刻,就实现了对应结果的输出,自动化决策程序使得司法的过程成为自动“贩卖机”,两造面对冰冷的机器展开对抗,很可能会产生主观上的不信任感,“让人民群众在每一个司法案件中感受到公平正义”的主观的程序正义价值难以实现。

二是,算法正义消解了司法程序的中立性。比较而言,人工智能由于不存在回避、疲劳、情感等问题的干扰,因而在结果上更具中立性。但这并不意味着算法正义对司法程序的中立性并不存在着任何维度的影响。与之相反,尽管算法模型一直在不断地进步与优化,但算法偏见、算法歧视等现象仍然存在,并进而在一定程度上消解了司法程序的中立性。事实上,“偏见进,偏见出”似乎自算法诞生的那一刻就已经存在,算法的训练数据、算法的训练模型以及算法的输出结果都可能导致算法偏见的现象出现。实践中,即使是最先进的生成式人工智能,也无法实现对算法偏见的绝对摆脱。大语言模型在提升ChatGPT的智能化程度和准确性水平的同时,也会导致算法偏见的法律风险成倍提升,基于GPT-3的输出结果已经存在大量基于性别、种族以及宗教的偏见。由此可见,算法在强化司法中立的同时,也会因算法偏见影响消解司法程序的中立性,进而造成算法正义的程序风险。

三是,算法正义消解了司法程序的对等性。程序的对等性要求,诉讼双方势均力敌,也即控辩平等,旨在防止“以大欺小”的情形出现,进而对案件纠纷的最终裁决产生不利影响。制度上,沉默权、质证权等权利设置都是程序对等性的具体体现。然而,算法正义的实践逻辑则有可能对程序的对等性带来一定的负面影响。以质证权的保障为例,不论是当前的证据智能指引系统还是证据智能分析系统,其司法实践的过程中事实上都是基于海量的数据与智能化算法自动完成的。例如,杭州互联网法院上线的智能证据分析系统可以实现对文字作品、图片、视频等证据进行对比,找出相似度,实现对证据的审查。在此过程中,智能化技术在证据领域的应用事实上是通过算法实现了对证据的比对、校验,算法化的比对与校验实质上就是对质证原则中的询问与对质的代替。

总之,虽然算法能够保障诉讼程序的效率,提高诉讼的便捷性,但自动化的程序设置也会对程序的参与性、中立性、对等性造成影响,引发算法正义的程序风险。

(二)算法正义的实体风险

已经有较为扎实的研究证实人工智能司法在结果上更有助于准确公正,具有更高的可接受性、能够提供更为整全性的信息、在社会效果评估方面更为有效, 体现了形式理性指导下算法正义的普遍正义功能。至于法定刑以下判处刑罚等特殊个案的正义实现,则完全可以通过人工校准,而不会影响算法正义的基本价值。但是,算法正义需要以科学的裁判规则代码化过程为前提,一旦算法和有关参数未得到合理设计,就可能产生系统性偏差,使普遍正义沦为普遍非正义,对司法公正产生巨大冲击。

不论是大数据、云计算、区块链等分析式人工智能,还是生成式人工智能,人工智能司法都是借助算法实现案件事实的认定与法律规范的适用,在此过程中,需要将证据数据化、对数据进行运算整合、输出人可以理解的结论。换言之,法律事实认定与法律条文适用的数字化转换,并进而借助算法运算输出是算法司法的基本过程。例如,在法律事实的认定上,大数据证据和大数据侦查方法运用也日趋成熟,不同于传统实物证据,面对不具有可感知的数字属性证据,人类感官在事实认定中的重要性已经开始下降,法律事实的认定开始由感官经验向数据之间的相关性转变。在此情形下,案件事实的认定正在从以人为中心向以数字为中心渐变,呈现出法律事实认定的数字化趋势。与之类似,法律适用在数字技术的嵌入下也呈现出显著的数字化趋势。法律条文概念的模糊性使得法律必须经过解释才能实现准确适用。但在具体法律规则的适用过程中,不仅存在法律解释,而且还存在一种独立于法律方法的事实解释,因而,审判过程中的法律适用往往是一个耗时费力的过程。当前人工智能正逐渐发展为可解释的人工智能,以数字为驱动的法律适用能够实现对这一过程的简化。例如,以“智慧案管”为代表的管理系统通过对类案检索、量刑规范等功能的融入能够实现法律适用偏离度自动分析预警,确保类案同判。重要的是,事实认定与法律适用的数字化在为事实认定与法律适用提供代码化、自动化的可能性同时,也促使审判结果能够以更为精确、更为客观的数字化形式呈现,体现了形式理性指导下算法正义的普遍正义。

但问题在于,基于算法的事实认定与法律适用是通过算法模型在法律样本数据中找寻数字之间的相关性而完成的。本质上,这种相关性模型只是一种概率性、计算性的数学统计与拟合。哪怕是最先进的生成式人工智能,也只是更多地应用了概率论,通过对大量数据的训练,以巨大的计算量计算词与词之间搭配分布的概率。因而,数据的准确性、模型的设置的科学性都将对最终的输出结果造成影响。例如,人工智能犯罪风险评估由于对历史数据的高度依赖,就不可避免地导致系统会重现数据中的歧视模式与历史偏见模式。事实上,“当我们质疑人类恣意时,也更有理由怀疑这些系统研发者会借着算法黑箱写入法学家的偏见、科学家的武断、企业的经济利益等,它们仍无法摆脱商业、政治、强势价值观等力量操控”。换言之,只要对用于训练的数据进行一定的清洗,对运行算法的模型进行科学的设置,基于算法的事实认定与法律适用能够实现对个案的关注,算法正义的实体风险并不在于只能实现对形式正义的关注,忽视裁判结果的“法外开恩”,而在于算法自身的数据、模型的合理性、科学性。

总之,算法在体现形式理性指导下实质正义的同时,也会因来源数据、相关参数等因素影响算法的功能发挥,进而影响到实体结果的准确性,引发算法正义下的实体风险。

(三)算法正义的技术风险

人工智能司法安全风险还要面临算法正义的固有安全风险。人工智能司法的数智化特征决定了实现算法正义面临着与实现传统司法正义不同的固有安全风险,其主要是人工智能系统的运维安全风险,具体涉及人工智能程序对数据进行收集、存储、传输、交换、处理的各个流程。依据《人工智能司法意见》的相关表述,数据安全、个人信息安全以及人工智能系统安全是算法固有安全风险的两个重要组成,而对安全的保护强度则影响公众对司法规范体系的信赖程度。

人工智能司法的良好运行离不开高质量的数据支撑,一定程度上,领域内的数据量越大、质量越高,就越能取得更好的效果。例如,以ChatGPT为代表的生成式人工智能之所以能够取得如此显著的成果,其关键的原因就在于借助了海量参数的大语言模型的训练。但就目前而言,大语言模型的主要技术框架来源于域外国家,基于西方价值观和思维导向建立,因此其中的回答也通常迎合西方立场和喜好,可能导致意识形态渗透。司法不仅关系到个人的权利义务分配、社会矛盾的化解,更与国家的核心价值、意识形态密切相关。因而,一方面要规范人工智能司法的数据处理,强化数据应用监管,另一方面也要强化司法数据跨境流动的管理,防范危害国家安全的数据被境外利用。为此,我国数据安全法专门就数据安全予以规定。个人信息安全是算法风险的另一个表现。数字时代,依据个体信息数据所有行为都将变得“有迹可循”。为获得更为适配、更为精准的算法服务就不可避免地涉及对个人信息的收集、处理。实践中,德国、英国、加拿大等诸多国家都纷纷表示将以个人信息权益保护与数据安全为由对OpenAI展开调查。因此,个人信息安全也成为人工智能技术固有风险之一。除此之外,受现有技术的瓶颈影响,人工智能系统自身也具有不可回避的安全风险。例如,各国政府部门以及相关组织已经意识到,人工智能技术的发展需要制定一个规范和可信赖的框架来保障人类免受伤害。但就目前的技术而言,实现完全意义上的算法透明、算法可解释仍然具有一定差距。

总之,以算法司法为本质的人工智能司法在体现形式理性特征的基础上,也面临着程序风险、实体风险以及技术固有风险三重危机。但归根结底,引发上述危机的实质原因是算法训练的数据、算法运算的模型、算法输出的结果等因素,算法是造成危机的根源。

三、人工智能司法的完善:算法中心的治理模式

围绕算法司法、算法正义以及算法所引发的风险,人工智能司法的完善应当以算法为中心展开,通过对算法中心治理模式的构建,实现人工智能司法的深入推进。当前,前置性学习训练及人工标注辅助算法升级的准备阶段,进行自身算法处理输入数据及得出处理后数据产出物的运算阶段,数据产出物流入社会并对社会中的各行各业造成影响的生成阶段是人工智能运行的三个基本阶段。因此,训练数据、运算模型以及输出结果是算法中心治理模式的三个重要组成。

(一)强化算法训练的数据

数据是知识形成和文明进步的重要象征,是人类认识客观世界的产物。数据不仅关涉到国家、社会、公众的数字权益保护,同时也与算法输出结果的客观、中立密切相关。因此,对于算法训练数据的增强应当分别从数字权益与数字来源两个方面展开。

具体而言,在数字权益方面,算法训练数据的增强应当严格依照知情同意的法律框架展开,增强数据使用的合法性。法律层面,我国相继制定的数据安全法、个人信息保护法等系列法律分别对数据的收集、处理予以了规定。与此同时,2022年11月,国家互联网信息办公室、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》规定,深度合成服务提供者和技术支持者应当采取必要措施保障训练数据安全、遵守个人信息保护的有关规定,提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。2023年8月15日施行的《生成式人工智能服务管理暂行办法》也再次明确,生成式人工智能服务提供者应当使用具有合法来源的数据和基础模型、取得个人同意的信息等依法开展预训练、优化训练等训练数据处理活动。由此可见,尽管在体系上比较分散,但根据相关的法律规定,个人数据处理者在处理个人数据之前,必须具有法律根据。在此基础上,对于算法训练数据的强化可通过个人信息收集、提供和共享三个层面的规则构建,来防范智能技术应用造成的安全风险。在数字来源方面,算法训练数据的增强关键在于构建统一的司法数字资源库。依据《人工智能司法意见》的规划,未来,推进人工智能司法应用需要加快推进司法数据库、数据服务平台、司法知识库、人工智能引擎等系统的建设和集成,打造实体化司法数据中台和智慧法院大脑,为面向各类业务的人工智能司法应用提供核心驱动。在此基础上,数字资源库将是人工智能司法建设的重要内容,是人工智能司法的基础性建设。为此,构建司法数字资源库需要分别从如下两个方面展开:一是,通过司法数字库的构建,实现对现有司法资源的统一,形成包括法律法规、司法文书、法律期刊、法律专著等文本数字,庭审直播、庭审录像等视频数字,诉讼流程、司法管理等信息数字的多模态数字资源库,为智能化算法训练提供充足的数字资源。二是,通过司法数字库的构建,实现对关键数字的清洗、筛选,促使算法训练的数据已经实现个人信息匿名、敏感信息清洗、失真信息筛选,进而增强数据的高质量。

总之,数据作为算法治理的基础与前提,既要推进司法数据收集、处理的合规合法,强化数据保护,也要通过司法数据资源库的构建提高数量与质量,为算法训练提供充足燃料。

(二)优化算法运行的模型

通过对模型的优化能够显著提升算法的理解、交互等能力的提升,进而促进人工智能司法的完善。面向生成式人工智能的未来实践,新一代法律智能系统呈现出基于大语言模型与法律专家知识相融合的趋势,因此,对算法模型的优化可以分别从如下两个方面展开。

一方面,借助大语言模型中的微调指令,实现对算法模型的优化,促进人工智能司法的完善。实践已经证明,在微调指令的助力下,以ChatGPT为代表的生成式人工智能不仅能够处理文本分类、语义分析、信息提取、文本生成、自动文摘、机器翻译、对话系统、信息检索等自然语言核心任务,同时还能够实现指令表达由“人类适配机器”向“机器适配人类”的转变,只要人类开口表达诉求,人工智能就能够理解并帮助人类进行解答。因而,对算法模型优化的一个可能的路径是强化对司法领域内的微调指令。面向司法领域内微调指令主要集中在如下三点:一是,构建以法言法语为主要应用场景的交互微调指令,提升人工智能技术在司法场景内的交互能力,进而提升算法决策过程中当事人的参与性。二是,强化价值对齐的微调指令,实现对算法偏见的矫正,进而促进算法结果的客观性。三是,在技术维度探索算法的可解释性,推进算法模型的透明,消解算法的固有技术风险。另一方面,构建法律专家参与的算法模型,通过法律知识在算法中的运行强化人工智能司法的可解释性。算法正义并非天然隔绝程序正义与实体正义,相反,程序的参与性、中立性、对等性等程序正义要素完全可以通过人机交互设计予以保障。例如,数字智能时代下的法官亲历性不仅要求法官对决策过程的物理在场,还需要法官对诉讼智能化过程的数字在场,可以通过诉讼智能化系统相关系数的调节实现对待决案件关键要素的输入把关与结果检验,进而完成裁判的最终作出。与之类似,借助法律专家的法律知识体系实现对法律知识图谱的构建,进而完善人工智能司法的算法模型。

总之,伴随着人工智能的技术发展,针对智能技术的微调指令、优化算法也在取得显著进步,“法律知识图谱+大语言模型”的复合性算法也成为可能,在此背景下,面对算法所引发的安全风险一定程度上可以通过对算法模型的优化予以解决。

(三)纠偏算法输出的结果

不论是程序风险、实体风险还是技术固有风险,风险总是会以算法输出结果的形式表现出来。尽管人工智能司法的本质是算法司法,呈现出法官后撤的实践特征,但正如前文已经提及的那样,法官后撤并不是法官离场,而是由“幕前主导”转变为“幕后监管”。形式理性主导下的实质正义仍然需要数据的标注实现算法价值的对齐。因此,在算法司法的场域里,司法人员仍然需要对算法输出的结果纠偏。实践中,基于人类反馈的强化学习机制,以ChatGPT为代表的生成式人工智能已经能够以符合人类意图、知识观与价值观的方式回答问题,实现价值对齐。在此基础上,可以通过反馈机制的构建实现对算法输出结果的纠偏,进而实现对人工智能司法的完善。

对算法输出结果的纠偏可以从如下三点展开。一是,从制度层面构建人工智能司法的反馈机制,实现对算法输出结果的纠偏。按照《人工智能司法意见》的规划,未来阶段要通过司法人工智能伦理委员会等机制,综合采用伦理审核、合规审查、安全评估等方式,防范化解人工智能应用过程中的安全风险。2022年,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》也为加强科技伦理(审查)委员会建设提供了指导意见。2023年10月,科技部、教育部、工业和信息化部等部委联合印发的《科技伦理审查办法(试行)》更是对科技伦理审查的主体、内容以及程序进行了具体规定。由此,可以在制度层面构建司法人工智能伦理委员会,通过委员会实现对算法输出结果的审查与反馈,相关技术部门基于委员会反馈的意见对算法进行纠偏,形成“算法结果输出—审查委员会审查反馈—算法优化再输出”的闭环机制,进而推进人工智能司法的完善。二是,从技术层面构建可反馈、可报错的开放性纠偏接口,引导、鼓励司法人员对算法输出结果的监督。事实证明,基于人类反馈的算法训练能够大幅提高智能技术的准确性,例如,通过对人类反馈的强化学习技术的调用,ChatGPT前所未有地实现了对人类认知机制的深度模拟,能够更好地实现细化关系连接、个性要素的识别与内容生成。在此基础上,人工智能司法的相关算法开发应当预留开放式的反馈接口,让广大的司法人员能够及时、便捷地实现对算法输出结果的反馈,并形成结果反馈数据库。技术开发部门基于反馈的数据库再对算法进行调整训练,从而实现对人工智能司法的完善。三是,从个体层面提升司法人员的数字校验能力,构筑算法输出结果纠偏的个体机制。面对人工智能司法滚滚向前的时代潮流,作为司法的主体,广大的司法工作者不可能完全脱离智能技术。事实上,进入数字时代,数字技术对劳动内容的重构迫使劳动者需要获得新技能以适应新岗位,掌握并熟练应用数字技术已经成为数字时代的必备技能。具体到人工智能司法领域,是否能够识别、校验算法的输出结果就是司法人员数字技能的一个重要方面。在此基础上,实现对算法输出结果的纠偏还需要从个体维度提升司法人员的数字技能。

总而言之,人工智能司法完善的中心在于算法,应当围绕算法训练的数据、算法运算的模型以及算法输出的结果三个维度展开与之对应的治理。构建“数据—模型—结果”三维一体的治理模式。在此模式下,数据作为人工智能司法的前提与基础,应当严格遵循我国既有的规定,在知情同意与数据安全的框架下推进司法数据的收集、处理。作为人工智能司法的中枢,算法模型可以借助微调指令、法律知识图谱等最新的技术成果,实现对模型的优化,进而推进算法模型所可能存在的系统性偏差。作为人工智能司法的终端,算法输出的结果需要通过制度层面的伦理审查委员会的构建、技术层面的反馈机制接口以及个体层面的数字技能三个方面展开,实现对算法输出结果的纠偏。

结语

当前,伴随着生成式人工智能的进步,人类正在迈入通用智能时代,智能技术将不可避免地为人类社会生活带来前所未有的机遇与挑战。作为社会生活的重要组成,司法生活也不可能置身事外,坚持“碎步前进”式的司法回应虽然恪守了“司法稳定”这一古老原则,但也与智能时代所要求的“敏捷治理”相抵触。为此,我们必须直面智能技术所带来的全新可能以及潜在的风险,穿透人工智能司法的面纱直指本质。唯有如此,才能够统筹好智能时代的司法发展和司法安全,以新安全格局保障新发展格局。在此基础上,人工智能司法的本质就是以法官后撤为实践特征的算法司法,也即,用算法决策尽可能地代替法官决策,尽管最高人民法院反复强调人工智能司法的辅助性,但实践的使然与技术发展的必然都将导致算法司法的本质无法改变,算法风险是人工智能司法风险的核心所在。所以,人工智能司法风险的治理核心是算法治理,而不是司法管理治理和合规风险治理,只有以算法为核心配合具体的治理方案才能有效防范人工智能司法的安全风险。

(本文来源于《东方法学》2024年第4期)

专题统筹:秦前松