罗有成
西南政法大学网络空间治理研究院助理研究员、博士研究生
引 言
一个全新的社会,要有一门新的法律科学。随着以大数据、算法、元宇宙和 ChatGPT 等为代表的新一代科技革命不断迈向纵深,数字技术正在以前所未有的姿态重塑现代法学。对此,马长山教授提出本体论意义上的“数字法学”理论构想。在他看来,如果只是将数字技术作为拓展现代法学的革新策略,这本质上只是功能、范围和认识方法的拓展,对数字技术革命带来的法学变革作用的认识仍不够深刻。相反,植根于工商业社会的现代法学必然要进行总体性的本体重塑。换言之,新技术革命对现代法学的挑战不只是应对新问题、新领域那么简单,而是其中很多重要的范畴、概念、理论与方法都要予以颠覆性重建,进而作出新型的命题提炼、探索新型的法学理论。如此一来,数字社会对现代法学的塑造,就已不再是某个领域某部法律的个别调整,而是一场涵盖法学理论、规范制度、法律价值、法学方法及法学教育的全面系统重建。“在数字社会中,自由、平等、民主以及法律、秩序和正义都将被重新定义。”
数字正义、数字自由、数字平等、数字人权和数字秩序正成为法律价值体系中的新形态。以正义价值为例,现代法学倾向于将正义理解为一种“比例正义”,通过一定过程实现对条件相等的人分配相等的利益。但进入数字社会以来,算法用一种“算”出来的客观决策替代了混沌于人脑中的正义直觉性判断,并用各种定量分析、数据建模来呈现“正义”的各种要素。除了对正义进行技术上的分解之外,算法还对具体场景中的正义进行赋值和数字转换,并通过数字建模对正义展开分布式运算。借助于这种分布式计算,正义事实被形式化、数据化、计算化为给定条件下追求函数的“最优解”,排除了裁判者带有个性化的正义判断,在算法系统内部正义方案将达致前所未有的统一。可以说,在新技术革命条件下,所有的正义判断过程可以被解读为“读取”和“写入”两种过程,剩下的一种是“执行”过程。
不过,数字法学的法律价值依然以人性论和现代法学的价值论为基础,但是其中的范畴、概念、理论和方法因数字技术的应用而发生了改变或重建。因此,一方面,正义、人权、自由等价值的存在仍然是人在法律领域发展中范畴性、规律性的本质存在,它们并不会随着数字社会的来临而消失。另一方面,需要在认知层面重新树立一套与时俱进的法律价值观,进而有效回应数据、代码、算法等对于传统法律价值的深刻挑战。鉴于此,本文进入到数字法学的语境之中,将数字法学的法律价值体系主要概括为数字正义、数字自由、数字平等、数字人权和数字秩序五个层次,试图理解它们的基本含义、主要内容,并进一步回答传统法律价值的支柱性概念在新技术革命条件下究竟发生了哪些根本性变化。
一、数字正义
罗尔斯曾说,正义论的目的是“厘清和组织我们对社会形式的正义和不正义的成熟判断”。数字正义论也是同样的目的,只不过它更加凸显社会正义原则对数字技术综合应用过程的规范指引。其中最为重要的是为算法判定正当边界。算法在数字社会中扮演非常关键的角色,它逐渐被用于确定重要社会物品的分配,包括工作、贷款、住房和保险等。此外,在法律法规允许的范围内,算法在对人的识别、排序、分类和管理方向的应用也会越来越多。分配和承认作为社会正义的实质,将来会被逐渐托付给算法。可以说,“算法就是权力”,它不仅能让我们去做只有武力、强制、影响力和操纵才会让我们就范的事情,而且还能以更稳定也更广泛的方式来施加影响。精心设计的算法虽然能够大幅提高决策效率、消除人类决策者的私心和偏见,但算法也绝非“天使”,它既可能强化已有的不正义,也可能带来诸如算法歧视、算法偏见和算法霸权等新的不正义。
有学者提出,算法不正义可分为两类:基于数据的不正义和基于规则的不正义。当一种算法应用于选择不当、不完整、过时或存在选择偏见的数据时,不公正就出现了。即使没有数据选择不佳、不完整、过时或存在选择偏见的影响,若算法应用的规则不公正,也会产生显性或隐性的不公正。由此可见,在数字生活世界中,正义在很大程度上取决于其使用的算法及应用算法的方式。数字正义论要做的就是确保定义数字生活世界规则的算法能够符合社会正义原则的要求。也正因如此,有学者提出,“新技术仅仅为社会中普遍存在的歧视与不平等现象提供了一种新的工具,数字技术本身并不能自发地造成新的不公正,真正引发不公正的只能是技术的操纵者。”因此,如果要给数字正义下一个明确的概念,可以将数字正义理解为“指导和约束人类开发、设计、应用数字技术的价值准则,其本质是社会正义而非‘机器正义’”。
具体来讲,首先,数字正义是数字社会这个特殊节点新出现的,并融合了社会正义、法律价值、技术价值、伦理规范等在内的一种正义观念或正义原则。在宽泛意义上,数字正义可以被理解为个体同意用来指导和调节数字技术开发、设计、部署、应用共同实践的价值准则。其次,数字正义概念的客体指向是人类应用数字技术的意志及行为,数字正义的基础应当是以数字技术应用实践为方式形塑社会正义,需要以社会共同善为基础确立数字正义在数字技术应用实践中的价值统摄地位。最后,数字技术应用产生了新的正义空间,需要在新正义空间与法律公共实践的价值空间相互碰撞的基础上提炼数字正义的概念与原则,此时,数字正义概念也从价值理念维度演绎展开为制度维度。而在实现数字正义的诸种“实践行动和政治活动”中,法律发挥着至为重要的作用。
以上阐述的三个方面确定了数字正义的概念,如果我们不是生活在有规范边界的数字社会之中,或者如果我们不清晰数字技术应用在社会正义空间中所引发的价值挑战,或者如果不存在一种能够调节人类与算法之关系的价值准则以及算法参与决策的正当边界,那么数字正义的观念在数字社会中将没有用武之地。
二、数字自由
马基雅维利在《君主论》中写道:“古代的人比我们今天的人更热爱自由。”这已经是五百年前的事了。在那时,对自由的最大威胁是国王、殖民和征服。在数字社会,这个最大威胁或许变成了算法。例如外卖骑手被困在算法系统里,这种数字控制不仅蚕食着他们发挥自由与自主性的空间,还使他们在不知不觉中参与到对自身的管理过程中。又如算法内容精准推送,当用户只关注算法推送满足自己偏好的内容,而减少对其他信息的接触时,久而久之,便会像蚕一样被桎梏于自我编织的“茧房”之中。对此,美国学者凯西·奥尼尔在《算法霸权:数学杀伤性武器的威胁》一书中提醒我们,“有些选择无疑是出于好意,但也有许多模型把人类的偏见、误解和偏爱编入了软件系统,而这些系统正日益在更大程度上操控着我们的生活”。数字自由的提出,正是基于大数据和算法嵌入社会生活过程中所诱发的诸多不自由。也就是说,数字自由归根结底是防范私人或国家垄断任何技术平台或数字技术侵犯公民自由的价值准则。具体来讲,数字自由的实现需要遵循以下几方面的基本原则。
首先,数字技术应该被设计来确保所有人享有最大可能的个人自由。其要求算法在善的不同概念之间尽可能保持中立。算法不应该积极地倡导一种生活方式胜过倡导另一种生活方式,而应该给个人最大的自由空间来决定他们的道路,也许是通过对自己拥有的数字设备进行个性化定制。
其次,维护自由的方式是确保人们根据自己喜欢的算法在不同的系统之间移动。例如,如果我认为一个社交平台限制太多,我就能转向另一个。数字自由要求,对于任何重要的自由,如通信、言论、新闻收集、搜索和运输,都必须有多个可用的数字系统来行使它。而且,在这些系统之间移动不会对用户产生任何负面后果。实践中,技术垄断平台可能会对数字自由造成致命影响,因此需要对平台进行合理且必要的法律规制。
最后,任何人都不应受制于数字技术者的专断权力。至少,这意味着必须有人协助我们理解,控制我们生活的数字技术是如何实际工作的,它们所包含的价值为何,是谁设计和创造了它们,它们服务于何种目的。这实际是要求大数据和算法的透明化以及公民问责能力的相应提高,在可能的情况下理解技术、关心自由。
总之,基于数字自由理念,进一步可判定适用于数据/信息分配、人机交互、智慧司法、智能诊疗等的各种原则,并考察它们彼此间是否具有一致性。当然,数字自由原则不仅只是评判制度和规则,也包括评判社会本身,其所追求自由的主旨在于:最大限度地扩展数字世界“公共空间”,让大数据和算法造福人类。该开放的一定要最大限度开放,该保护的必须严格加以保护。
三、数字平等
在数字社会,算法除了在分配资源方面发挥作用,还将越来越多地用于对人类进行识别、排名、分类和管理。过去,决定可见性、地位和尊重的是政治、法律、文化和社会精英,如今这将更多地由算法来完成。但是,数字排名背后也会有很多“不可见的不平等”,其中表现最为突出、影响也最为深远的是算法歧视或算法偏见。一旦包含人类歧视或偏见的算法被广泛应用,将导致特定个体系统性歧视的反复发生,进而诱发个体机会不平等的结构化风险。正因如此,弗吉尼亚·尤班克斯教授提出,算法并不像设计者所宣称的那样客观、中立、平等和去意识形态化,反而基于一种“自动不平等”的决策背景,营造了一所锁定穷人、管制穷人甚至惩罚穷人的“数字贫民窟”。
在数字生活世界中,除了上述无意识的偏见表达和结构性不平等之外,很大程度上是大型平台企业和部分公共机构不正当使用算法所带来的不平等问题。因为技术永远不是独立于人类的欲望和目的而存在的,它的产生自始至终都臣服于各种社会力量,算法等数字技术并不存在自主性。人类的价值观进入数字技术设计环节,并且,在之后的开发、部署、应用环节,人类的价值观继续塑造着数字技术的使用方式。如果数字技术具有自身的发展逻辑和必然推动社会发展的路径,那就等于基本上没有给平等讨论预留空间。因此,除非我们能够更好地理解算法技术是如何影响社会行为、社会结构与社会关系,包括对阶层和不平等关系的建构的,否则“平等”“自由”“权利”这些作为正义社会指南的词语就会失去其自身的意义。这需要我们审视机器表层后的世界,关注其背后的人的决策和选择如何塑造了什么可行、什么不可行的界限划分。
数据资源的合理分配是数字平等实现的首要方面。在数字社会,数据与资源、机会、财富、能力、权力等相联系,更是直接关涉产业发展、社会治理甚至国家安全。可以说,谁掌握了大数据和算法,就意味着掌握了塑造全新社会秩序的话语权。从本质意义来说,数字时代的社会公正问题是一种由数据分配不公引发的利益关系失调问题。因此,与数据相关的利益、权利、义务如何分配,是实现数字平等的底层逻辑。
具体来讲,首先,要以均衡化基础设施为重点,推动构建公平性的大数据系统,以此在数据生成、采集、分析等环节促成数据资源的合理分配。一方面,推动城乡和区域之间数字化基础设施的均衡发展,构建全面的数据集合,避免“数据鸿沟”“数据孤岛”情形的发生;另一方面,通过云平台和区块链等数字化共享和融合技术构建政府“数字中台”,整合互联网大数据和各类政府数据,最终实现数据社会化利用的公平分配。
其次,要消除数据资源分配过程中的支配和垄断,促进数据公平实践。数字时代之所以会产生算法正义问题,正是因为喂养算法的数据的分配与使用发生异化,导致数据与算法背后的社会主体关系的错位和实质不平等。在数据资本时代,个人数据不断被商品化,个人数据的收集也不断被合法化。任何数据都由个人生产出来,但个人却不能拥有这些数据,也无法决定这些数据的使用,它反而作为一种重要的新型资产,掌握在为我们提供服务的大数据公司手中。一方面,这导致没有相应数据资源和数据处理能力的个体和传统企业无法与之竞争、抗衡,一种新型的垄断方式很可能就此形成;另一方面,这也为数据资源掌控者带来了大数据背景下的权力滥用和寻租,并侵蚀数字弱势群体的利益空间和正当权益。因此,在检视大数据资源的合理分配过程中,要有意识地消除大数据权力建构体系中可能出现的制度性分配不平等,充分重视数字弱势群体的数据分配利益与需求。
四、数字人权
人权是法律的重要价值追求,同时也是时代的反映,其理论内涵随着时代发展而变化。从最早的抽象的自然权利和政治权利到个人的基本经济、社会、文化权利,再到20世纪下半叶提出的发展权、自主权和环境权,一同构成了人权概念所具有的基本内容。进入数字时代,人权范畴也必然会迎来一个全新的拐点。有学者就明确提炼出“数字人权”的法学命题,并将之定位为数字时代的“第四代人权”。在他看来,数字人权本质上是在数字时代和智慧发展中作为人而应该享有的权利。有学者则将“数字人权”界定为“与数字技术应用相关的人权”,并将人权作为评价或指引数字科技应用的价值准则。也有学者认为数字人权是基础性、中枢性的数字权利,它的核心是与人在数字领域的尊严、平等、自由、能力相关的那些权利,例如普遍访问互联网、享有隐私权、数据保护权和安全权、免受数字技术侵害、拥有数字身份以及透明和负责任地使用算法等权利。
数字人权的变革诉求并非权利数量的简单增长或多元拓展,而是人权的根本性转向。也就是说,数字人权不是“数字内容的传统人权”抑或传统人权的“数字化”,而是一套独立的新兴权利,在适用空间、赋权方式、权利结构与运作逻辑等方面得以“新兴”,并在内涵与外延上充分展现出自身权利内容的独特性。其中,包括生命财产、政治参与、劳动就业、社会保障、文化教育等在内的各项人权都呈现出数字化的转向趋势,其要求以数字化方式来构造和呈现人的数据信息表达权、数据信息公平利用权、数据信息隐私权、数据信息财产权等基本权利。通过数字人权保护机制的作用,不仅赋予数据信息对人之价值和尊严的构造意义,最大化地实现普惠和赋能;还将对公民基本权利的保障融入算法的设计和应用过程中,减小、防止算法对人自主性的负面影响。
与此同时,根据权利义务相统一的基本原理,除了以数字人权为本原建立起基本权利体系外,还需要构建与之相对应的基本数字义务体系。其义务主体包括个人、掌握数据和算法的企业以及国家。原则上,个人主要履行数据的自我控制、审查和合理注意等基本义务,大数据企业和平台主要履行算法公开、算法解释和算法管理等基本义务,国家对数字人权的法律义务则包括尊重、保护与给付三层次递进义务。实践中,2016年《欧盟数字化基本权利宪章》(Charter
of Digital Fundamental Rights of the
EuropeanUnion)对基本权、防御权、给付请求权、平等权、参与权的标准以及保护义务等给予了认真思考,回应了人权价值在数字时代的变革诉求。
五、数字秩序
在现代法学视域下,法律的秩序价值是最基本的价值。没有秩序,也就谈不上正义和自由。同样地,数字秩序也是数字社会中最基本的法律价值。若数字秩序无法实现,不仅会影响到其他法律价值的实现,还会造成数字技术对人本身的“奴役”,进而威胁人类未来的生存与发展。这也是为什么当元宇宙概念出现时,学者们首要探讨的就是如何为元宇宙确立秩序的原因。
在数字社会,秩序作为法律的基础性价值主要体现为代码编写的规范有序。一个秩序良好的数字社会首先是一个编码良好的社会。这是因为,所有的数字系统都在代码上运行,无论是用于制定决策、学习技能、发现机制和整理数据,还是预测事件。也就是说,控制数字生活世界这一切的是一套非人格的代码编程。
如果从法律的视角来看,代码就是法律(或至少像是法律),代码秩序、代码正义会变得越来越重要。代码的选择“在本质上也是政治性的:它们规定社会秩序,分配利益和负担,并重构权力”。
此外,大数据杀熟、数字鸿沟、算法歧视、算法霸权等失序现象也都源于代码编写的不正当。从本质意义上说,代码编写并不是只关乎技术,它更多地还需要法律抑制代码编写的偏好以及监管、审查代码。用劳伦斯·莱斯格教授的话来说就是,法律和代码的相互作用塑造了数字社会的秩序。因此,通过上述分析可以看到,数字秩序的实现应该是法律和技术各自扮演好自己应有的角色,寻找法律与技术、人类与技术之间恰当的相处方式。个中深意在于,要认识到人与技术在本质上的相伴相生的关系,在人与技术构成的行动者网络中反思和校正新技术带来的价值伦理问题。
总之,当我们思考人机关系时,“不应陷入抽象的人机关系反思,也要避免将机器视为独立于人而演进的存在,而要认识到人机关系的本质是人与人之间以及其为中介的关系”。如此,才能建立“以人为中心”而不是“以技术为中心”的数字秩序。
结 语
随着深度数字社会的到来,大数据、算法、元宇宙、ChatGPT等数字技术无疑将呈现出更大现实力量,也必然给法律价值体系和人类的价值认知带来更大冲击。事实上,“技术从来就是好坏参半”,它“既赋予我们创造性,也赋予我们毁灭性”。更为重要的还在于,大数据与算法“可能会从根本上改变我们与法律的关系,机器而非人类终将成为正义的仲裁者”。然而,人类不仅要用大脑来解读数字化,还要用“心脏和神经末梢”。数字化的未来不可以使用算法计算,只有数字化的机器才使用算法。如果说数字化未来仅仅是它的技术预言成为现实,而它背后的价值理念破灭颠覆,那么它是不会造福人类社会的。如此看来,无论是对数字技术的研究开发,还是对数字技术的应用进行治理,都无法回避数字法学中的法律价值维度。毕竟,我们都需要搭建一种智识上的价值框架,以此来帮助我们清晰且批判性地思考数字化转型所带来的社会后果(也包括法律后果)。在本质上,数字正义、数字自由、数字平等、数字人权、数字秩序等法律价值的直接目的是确保数字技术得到恰当的使用,最终目的则是保护使用者(人类)的利益,并形成一种能有效地受到公众法律价值观念规范的数字社会。而这样的数字社会必然要求进一步拓展数字法学中的法律价值研究。
(原文刊载于《法律与政治科学》2022年第2辑)
《数字法治》专题由上海市法学会数字法学研究会特约供稿,专题统筹:秦前松。