中国实践
数字法治|孙笑侠:数字权力如何塑造法治?——关于数字法治的逻辑与使命
2024-06-02 10:44  点击:25537

孙笑侠

浙江大学数字法治研究院院长、教授、博士生导师。

在传统的社会秩序中,国家权力始终是唯一的支配力量。因此,法律上的“权力”就是指国家权力即公权力,传统理论中的所谓权力秩序就是国家权力分工秩序。古希腊罗马时期,曾出现过以法律来控制权力的思想。近代革命以来,法治与人权观念兴起,为制衡权力、保障人权,法治应运而生。因此,人权、公权、法治成为了治理秩序的三个力量要素。工业革命以来,尽管科学技术在进步,但始终没有一种科技力量能够对这个三角形秩序产生支配性影响。互联网初兴的时代,人们只是将其当作社会沟通工具,而社会学家担心的是互联网会强化社会隔离和原子化,比如,吉登斯在其1989年出版的《社会学》第一版中讨论了全球化的影响,在第四版中则增加了对互联网与信息技术的新影响的讨论。尽管吉登斯只是把互联网当作电视一样的传媒和沟通工具,但他仍然担忧“在网络空间失去我们的认同”,提出如下问题:“计算机技术将会统治我们而不是我们控制它吗?”这种观点无疑是有预见性的,但他是否看清了技术发展的未来——今天的模样呢?

当今,人类已进入数字时代,人的自由迷失于技术的霸权。在以数字技术为代表的当代新兴科技的促进下,数字经济、数字社会、数字政府出现了,其在给社会生活带来福利的同时,也对人权、公权、法治三者都产生了某种支配性的影响。换言之,科技在塑造新的权力,也在塑造新的法治。本文的核心论题有两个:其一,数字权力为何应该被纳入法律,成为具有法律性质和意义的法学概念和法律概念?其二,数字法治的逻辑与使命是什么?这两个论题,前者是后者的逻辑前提,后者是前者的当然结论。围绕这两个论题,本文拟从以下五个方面进行讨论:其一,算法应用是如何带来算法权力并扩张成“数字权力”的?其二,两种形态的数字权力,是如何参与和影响这种人权、公权、法治所构成的三角形秩序的?其三,从风险角度来看,两种数字权力是如何正在威胁人权和塑造法治的?其四,从法学态度看,法治只能对技术抱守忧患态度和消极规制的立场吗?数字权力是否有塑造良善法治的可能?其五,数字法治的使命是什么?数字法治可能有怎样的愿景?本文试图以“广角”式视角全景考察数字权力对数字法治带来的正负面影响,并论述数字法治的意义和使命。

一、转移:算法应用带来算法权力并扩张成“数字权力”

从算法或算法权力到数字权力,追溯其研究脉络,我们可以看到数字权力研究的意义和必要性。我国学界关于数字技术与权力之间关系的研究很可能始于上世纪末。1999年,有介绍美国媒体界数字技术问题的文章谈到了数字电视带来的权力结构与商业利益问题。而国内自然科学界使用“算法”概念可能始于2001年。2001年,有学者敏锐地提出“权力数字化”概念,这是指公权力的数字化。2007年,国内有社会科学学者发表了关于技术权力的文章,该文章提到,“技术权力在当代已现实地相对独立地存在”。2010年,在传媒学界出现了明确以“数字权力”为关键词的论文。而法学界当时对法学外学科提出的这项“数字权力”课题并没有及时进行回应。直至2018年,法学界开始对算法产生的权力进行研究。和传媒学界一样,法学界更多关注并研究的是“算法”而不是“数字”。此时的法学界开始称“算法”为“权力”,如郑戈提出,“大数据基础上的智能算法造就了新的权力形态,也呼唤着新的权利保护模式”。2019年,张凌寒明确使用“算法权力”这一概念,认为“法律应配置独立的算法解释权,用以衡平自动化决策使用者与相对人不对称的权力关系”。搜索中国知网,2018年至今,已有50余篇以“算法权力”为关键词的期刊论文。在这50余篇文章中,只有个别学者从哲学的主体能动性和权利保护的角度对算法进行论述,学界主张把算法当作权力治理的文章也在逐渐增多。这些关于“算法权力”的法学文章,大致针对算法黑箱、算法歧视、侵犯个人隐私、算法的程序正义等法律问题展开探讨。

但必须承认的是,法学学者或法官在面对算法黑箱时是无能为力的,其只能按照法学传统路径——所谓程序性思维去看待这些问题,即把技术问题转换成正当程序问题进行审视。近年来,有学者敏锐地把算法权力定位于正当程序问题,从法学“最佳介入方式”来限定了法学的问题意识和“议题”,从而缩小了法学在这个问题上的研究范围,客观上减轻了法学的“负担”——科技问题有法学学者不能承受之重。比如,陈景辉认为,“如果意识到算法权力的重要性,那么算法就不再是言论或者商业秘密,而是一种正当程序;相应地,打破算法黑箱就不是最佳的介入方式,反而应当以正当程序的基本要求来介入算法”。算法“不仅挑战着程序限制恣意的根本属性,而且冲击着参与、公开、中立和公正等程序正义的内在价值”,因此,“程序正义理论和制度内涵需要在传统基础上加以更新和推进”。

把算法权力问题限定在正当程序范围内加以规制,这是可以的。但问题是,法学只能从程序正当性上关注和规制数字技术问题吗?这是值得怀疑的。因为这可能会导致数字技术社会应用中的一些巨大的风险区域被遗漏。随着数字技术应用范围的扩大,人们所要关注的已经不仅仅是算法技术自身的问题了,而且应该包括某领域该不该以及如何应用算法技术的问题——这是算法工程师们也难以作主的问题。比如,把算法技术应用于预防犯罪的自动监控时,工程师要为算法的准确性和透明性负责,却不能为自动监控用于哪个路口、哪座房子的决策负责。因为算法只是数字技术的一个方面,算法权力也只是数字权力中的一个方面,数字权力的覆盖面积更大、更广泛,表现形式更复杂。因此,有必要从技术本身转移到社会影响角度,全面而深入地分析技术应用给社会带来的实际变化,从而重新审视这种被称为“数字权力”的“权力”现象。

首先,社会科学应该重点关心和研究数字技术的社会应用所产生的效果,即数字技术在社会应用领域的影响力。数字技术问题归根结底只是技术问题,只有把数字技术的应用作为社会科学研究的对象,才能体现研究目的。从国内外来看,相关研究用得比较多的概念是“算法”,因此当我们提到算法支配力时,可以继续约定俗成地使用“算法权力”概念。但随着算法技术在社会生活中被广泛应用,算法概念的内涵已发生变化。2019年,有哲学社会科学学者再提“数字权力”,认为在“微观上,数字权力支配着数字网络的行为者和用户的行为,并将他们的活动痕迹转化为大数据网络。在宏观上,用户行为痕迹所组成的大数据网络已经成为了凌驾在产业资本和金融资本之上的第三种资本形式,即数字资本”。2020年至2023年,提到“数字权力”概念的论文有所增多,其中至少有5篇论文将“数字权力”作为标题中的关键词。2023年,有法学学者在研究12345政府平台上的数字技术应用时,将“数字权力”作为其论文的关键词。这里提到的“数字权力”是行政语境下政府运用数字技术提供服务时产生的特殊行政权力,但它并不能展现数字权力的全部面貌。横向观察社会科学领域,社会科学学者的观察则更为全面。例如,有文章从政治学或政治社会学角度分析论证了数字权力概念,认为“数字权力作为一种新的权力形态得以诞生,并进一步改变了原有权力的组织形态和法律形态”。越来越多的社会科学学者表现出不使用“算法权力”概念而使用“数字权力”概念的倾向,预计这种情形还会持续增加。

国外社会科学学者有没有使用“数字权力”或类似的概念呢?回答是肯定的。最初的“数据权力”(Data Power)是起源于上世纪80年代、用于图书资料光盘储存领域的老概念。近年仍有国外法学学者使用了相近的概念,比如在2019年,Orla Lynskey在著名的《应对数据权力:来自数据保护和隐私的规范推动》一文中就使用了“数据权力”这一概念。那么,此处的“数据权力”概念仅仅是指大数据权力吗?显然不是。一位名为Isabel Hahn的学者明确指出:“‘数据权力’并不是指大数据权力,虽然大数据肯定有助于建立数据权力,但并非所有使用大数据技术的公司都拥有数据权力。换句话说,数据权力不仅仅是使用新技术来获得对数据的新见解;它是关于某些公司拥有的对数字环境中参与者之间的数据流的控制。”“仅仅关注‘看门人’或‘数字平台’等概念是不够的,因为它们过于宽泛,并没有解决对数据的控制这一概念,这构成了潜在的监管问题。因此,对数据权力的关注是一种尝试,旨在强调这种控制可能导致的个人问题和更广泛的数字生态系统问题。”这个论述把“数据权力”合理转换成“数字权力”,把纯技术问题转变成社会问题,并看到了一个仅通过算法权力看不到的“数字生态系统”,这是非常有见地的。Isabel Hahn还指出了数据权力的三个定义性特征:一是数据权力在数字环境中无处不在,二是海量、多样的数据导致了数据权力对用户的控制,三是数据权力指的是跨不同数据集聚合数据的能力。这也就是说,数字权力具有覆盖面极为广泛的普遍控制力与强大的数据聚合力,难道这还不足以构成一种与传统国家权力相匹敌的数字权力吗?

其次,数字技术的基础是算法,但算法不是数字技术的全部。随着数字技术的不断发展,除算法之外还可能会产生更多的新兴技术。基于过去已有的认知,算力就是计算能力(Computing Power),即对信息数据进行处理、输出预定结果的计算能力。推理就是计算,所以算法是推理之法。如果给定的大前提错误,那么推理结果也会出现错误。近年来,随着AlphaGo、AlphaFold的出现,特别是Chat-GPT这样的语言大模型问世以后,人工智能出现了“涌现之力”(Emerge)。据浙江大学AI研究专家吴飞教授描述,人工智能的特征大致可被归纳为:它拥有“深度学习”能力,能利用循环神经网络模型来处理自然语言这种序列数据,能进行“序列学习”,拥有以自注意力为核心的Transformer架构,以及受强大计算资源支持,因而表现出较强的内容合成能力。由此可知,在算法基础上创造的“模型”,具有内容合成能力,它不只是过去所谓计算或推理能力。因此,吴教授说,Chat-GPT推动人工智能向内容合成的高度跃升,“塑造了内容生产的新范式,成为智能数字交往的有力手段”,“推动了语言生成和对话式人工智能等领域的突破”。与原来的算法或推理不同的是,Chat-GPT能从人类的反馈中强化自己学习的技术,即“将在交流中人类对模型所合成内容的反馈作为一种监督信息输入给模型,对模型参数微调,提高语言模式回答的真实性和流畅性”。可见,Chat-GPT会进行类似人类的学习、思考和对话。甚至有人在今天大胆预言,AI有领悟力(Grokking),对没有见过的数据表现出了概括能力。简单通俗地讲,Chat-GPT不只会(靠)算法,算法技术不是数字技术的全部,因而算法权力不等于数字权力。

法学作为保守的社会科学学科,其发展始终是落后于技术的。虽然法学不能与技术同步,但是可以提前预测技术应用的效果。如果从元宇宙角度来预测,那么技术不限于数字技术,还包括脑科学技术、认知科学技术和神经技术等诸多技术。与智能技术结合的神经技术对人类的权利和自由将会产生严重威胁。生物技术、神经技术未必都是算法技术,但生物技术一定会涉及数字技术。可见,算法并不是对这个世界的权力秩序构成影响的唯一技术权力。从某种程度上来说,我们仍应回归到广义的技术上来,技术应用带来的权力,都是技术权力。但本文论题仅以数字技术为考察范围。

最后,在算法被应用到社会场景之前,其只是一种技术,并不构成“算法权力”。正如有学者指出的,算法明显不是权力,算法是人行使权力的工具,算法需与目的结合才能形成算法权力。只有当算法被应用到人与人的关系之上,具有了社会属性之时,才演变出具有“权力”特征的力量,进而形成一种数字社会生态系统。此时,“算法”不再是纯技术,而是转变为“数字权力”中的核心力量了,这时候算法才主要依靠法律来约束。虽然算法是数字权力中的核心技术力量,但数字权力不等于也不限于“算法权力”。有学者将算法权力在法律上界定为程序问题,是有道理的。因为像算法黑箱的不透明,显然是正当程序问题;侵犯个人隐私,勉强也可被视为正当程序问题。但是,有行政法学者的研究表明,算法权力不只是程序问题,还是实体问题。他认为:“算法并非计算机自行作出的指令,也并非计算机自行编写的代码,从实现过程看,算法需要人为设定规则,再委托技术人员编写代码进行代码实现,因此,算法具有属人性。”早在2001年至2002年,就有学者指出,“数字政府”的运行具有两大技术特点:政府运行的刚性程序化和刚性模式化。但“数字政府”整体上的人为操作使政府仍然会践踏或逃避“数字政府”内在的刚性规制而滥用权力。当算法与行政权深度结合时,需要法律加以规制的对象并非算法技术本身,而应当是算法行政权,即应从“权力制约”而非“技术规制”的角度研究算法。“行政算法需要行政机关设定规则,再委托技术企业或者特定人员制定算法,该行为背后的行为主体和责任主体均为行政机关。”可见,算法与国家权力结合而形成的算法权力,已经不只是程序问题。如果只把数字权力当作算法权力,进而把算法权力等同于程序问题,那么我们会忽略许多实体问题的风险隐患,包括行政算法提前设定的规则(分配权力、权利、义务和责任)是否正当、人工智能在金融与消费领域制造的垄断、算法对公共与个人安全利益的侵犯或控制、算法对国家权力的僭越和分享、算法所导致的司法中的偏见以及司法决策中的误判等。

算法权力只是数字权力的一部分,数字权力比以往的技术权力更强。蒸汽技术革命时代的技术权力,对政治权力虽有影响,但远远没有达到当今数字权力对社会和政治权力的影响程度。总之,笔者之所以使用“数字权力”,而不是“算法权力”,原因也在于此。那么,数字技术带来了一种怎样的新型权力?有学者在评介英国学者杰米·萨斯坎德的《算法的力量:人类如何共同生存?》一书时指出:“算法作为一种机器公式和语言,正在塑造代码化的法律和数字新型权力的底层逻辑。”数字技术是迄今为止使人类能力延伸幅度最大的技术,它在生活与生产的各种场景中被广泛应用,深刻改变着人类的生活。数字技术在商业经营与国家管理中的应用程度最广,在数字技术的影响以及在商业利益与公共利益的驱使下,商业势力与国家权力得到了大幅延伸。数字技术的“权力”与政府治理的行政权力相结合,催生出了一种新的治理技术及模式,有学者称之为“数治”。

数字技术设计者和使用者会将其自身的动机、目的和价值观代入技术之中,使技术成为符合其要求的工具,进而通过技术加强对其他主体的影响和控制。因而工具本身和工具运用过程共同合成了数字权力。数字权力是一种通过数字技术运用而自我营造和自我赋权的事实状态的权力,它目前只是一般社会科学意义上的概念,而不是法学上的概念,更不是严格的实定法意义上的法定权力。然而,科技作为一种非国家性质的支配力,已经强大到像国家性质的权力一样,不仅可以强制性地支配个人、市场和社会,还可以与国家权力相匹敌,甚至国家也不得不利用这种来自科技的权力。可见,数字权力已经具备了法律意义上的“权力”的大多数特征,诸如支配性、强制性、扩张性、排他性和权威性。文章至此,我们可以给“数字权力”加以定义:它是数字技术中产生的,以数字化设计、计算和应用为中心的单向强制性权力,是一种通过数字技术强制要求集体组织系统中各成员或单位履行有约束力的义务并导致数字生态系统转化为法治秩序的一种普遍化技术能力。数字权力正在参与并深度影响着人权、公权与法律构成的这种秩序。

随着技术应用进入社会,“算法权力”成为具有法律意义的“数字权力”,法学研究的重点也发生了转移,所以我主张要将“数字权力”纳入法律范围。判断一种社会科学意义上的“新权力”是否应该被纳入法学的权力范畴,该权力是否具有法律性质,进而其可否成为实定法层面的法律概念,关键是看是否有必要采取更强化的特殊规制措施来对这种新权力进行规制,即把平常对企业的规制上升到更高形态的规制,从而建立更优化的法治秩序结构。具体来说,主要是从事实和规范两个层面进行判断。从事实层面来看,数字权力是否具有权力的特征?是否会产生普遍的社会性影响而不只是对某个个体的影响?从规范层面来看,数字权力是否涉及新的权利义务关系及责任分配问题?在法律上的归责是否有新的界定?对以上问题我将在后文作出分析。

二、权欲:两种形态的数字权力触及到人权

之所以要将数字权力纳入法律范围,使其成为具有法律性质的概念,是因为它在事实上具有权力的特征,并且在事实上产生了社会性影响。我的论证是从数字技术的两个典型应用领域出发的。数字技术的两个典型应用领域是商业与国家。通过这两个应用领域,可以区分出数字权力的两种形态——数字私权力和数字公权力,这二者分别参与和影响着社会秩序。今天的事实告诉我们,包括算法在内的数字技术,在被商业和国家应用的场景下,在性质上不再只是一种技术性工具,还是一种社会化的权力。那么,数字权力是以怎样的形态存在的?人们常说,当今技术在野蛮生长,野蛮生长的机制表现为两个方面:一是技术的发展以市场和利润为动力,二是技术的发展有公权和管理的助推。有学者从考察算法的角度指出,普遍运用“算法赋能带来了社会权力和权利的增量,但增量的配置并不均衡,而是加剧了私权利、公权力、私权力的失衡”。而最近有宪法学者使用“数字私权力”概念,指出它存在“支配优势和资源垄断、准监管角色、准国家状态的特征,对宪法理论的公私二分法、基本权利第三人效力、民族国家理论都有破坏性影响”。于是数字私权力和数字公权力共同构成了这个时代的数字权力。

首先来看数字私权力。网络平台运用数字技术,就产生了数字私权力,也可以称之为商业数字权力或“数字资本权力”。技术在商业领域的应用历来是最广泛的,这是因为技术总是天然地带着商业性质,具有市场和利润的胎记。同理,数字技术在今天也成为了商业和市场的热点,其主要应用领域有电子商务、数字平台主导的市场、生活的物联网、加密货币、机器人应用于金融、区块链应用于公司治理、医疗大数据应用等。无疑这些数字技术的应用是可以给人类赋能、给消费者的生活带来共享福利的,这才构成了技术供应与技术消费的市场性质。

决定数字私权力的私欲有何特点?可以说,私欲代表着微弱的自我管控力。那么,这种私欲来源于何者?这个问题取决于:数字化商业平台的数字权力最终服务于谁的利益?在数字技术应用和消费中,谁承担更多的责任和风险?谁享受更大的利益和好处?有国外学者指出,数字技术应用可能最终服务于企业的利益而非消费者的利益。美国田纳西大学法学院教授Maurice E. Stucke、英国牛津大学竞争法和政策中心主任Ariel Ezrachi撰写的《数字助理如何危害我们的经济、隐私和民主》一文指出,虽然数字助手可以提供巨大的价值,但仔细观察就会发现,在一个算法和数据驱动的世界里,占主导地位的数字助手最终可能服务于企业的利益,而不是消费者的利益。这些数字助手可能被用来建立一个受控和操纵的个性化环境,在这种环境中,竞争、福利、隐私和民主让位于企业利益。

这种私欲能够实现的机制是什么?这涉及平台权力的形式及其机制。有学者曾提出,平台权力具有三种形式:第一种权力形式是“守门人的权力”。它源于这样一个事实,即一些公司有效地充当了数字市场的基础设施,它们控制了其他公司在网络经济中开展业务所依赖的技术。平台可以利用其看门人的权力,从依赖其基础设施的业务用户那里勒索和提取更好的价钱。第二种权力形式是杠杆。平台不仅可以作为关键的基础设施,还可以跨市场整合。这使得一个平台能够利用其平台主导地位,在一个独立的或辅助的市场中建立优势地位。跨市场整合是指,让平台与使用其基础设施的公司直接竞争,从而使双方产生核心利益冲突,激励平台将自己的商品和服务置于第三方提供的商品和服务之上。例如,亚马逊在销售独立设计师设计的服装的同时,也销售亚马逊品牌的服装。一项独立研究发现,亚马逊会优先考虑推广自己的品牌,并限制竞争对手进入其网站上的某些显著促销区域。第三种权力形式是开发和利用信息的权力。这种权力的来源是平台收集到的关于消费者和商业用户的各种形式的数据。在某些情况下,平台还会跟踪用户在第三方网站和应用程序上的活动。平台可以以多种方式利用这些数据,并根据用户的个人资料改变用户看到的信息。例如,Facebook可能只向年轻员工展示某些招聘信息,或者只向非少数族裔展示某些住房广告。平台还可以利用这些数据进行一级价格歧视,向每位消费者收取不同的费用。这三项主要的平台权力形式使平台占有了主导性和支配性的地位。

我国有学者认为,马克思关于资本权力的批判是我们理解数字资本权力运行的基础和前提。在数字资本主义生产方式下,数字资本延续了资本的权力属性,数字资本家将数据生产要素变为私人所有,通过垄断性扩张、平台控制、数字全景监视、意识形态控制等一系列手段不断剥削数字劳动者,使其自身权力凌驾于整个社会之上。有学者认为,少数超级数字平台及其背后的互联网公司具有区别于传统媒体和社会组织的独有权力。在法理意义上,只有政府拥有权力(Power),私主体在社会中只享有权利(Right)。但数字平台对社会结构的嵌入和对社会资源的整合为其自身带来了现实层面的支配地位,并获得了法律意义上的“私权力”(Privite Power)。在数字平台的实践中,这种权力呈现为市场准入权、资源调配权和规则制定权,由此形成了平台主导的内容和服务治理结构。正是基于这种权力之特殊性,有学者从“行为”角度进行了分析,认为“数据行为”应当被纳入“经济法规制路径”。实际上其指出了一个重要的现象——数字技术对市场主体、市场秩序的支配力已经达到无法用传统民法和既有的经济法来规制的地步,所以他强调“既有制度”与“新型制度”的有机配合。

由此可见,国内外已有不少学者把数字技术与商业结合的平台支配力看作一种私利化的权力。从其在数字技术方面所具有的支配力的强制性来看,实际可将其视为“数字权力”;从其与商业结合的构成来看,实为一种“数字私权力”。数字私权力的侵权形式与传统的企业权力侵害个体权利不同,其侵害的是作为基本权利的人权,而数字权力拥有者已成为侵害人权的主体,这里被侵害的人权是指在数字条件下形成的“数字人权”。决定数字私权力的私欲,具有非理性和自控性微弱的特点,但是,当数字私权力被政府公权力和法律控制时,就成为了具有可控性的权力。这是将数字权力纳入法律使其成为法学与法律概念的第一个理由,是“数字人权”得以证成的第一个思路,也是“数字法治”被提出的第一个逻辑起点。

其次来看数字公权力。近年来,国家不仅重视对数字技术的规制,也重视把数字技术应用到社会治理领域。行政和司法领域都有借数字技术来辅助公权运行的现象。在这些领域,数字权力已不再只是技术力量,在哪里应用和怎么应用都取决于公权力,因此,其还带有国家权力的特性。在数字技术的支持下,一方面,国家权力彰显出了更强化的公权力特征,人称“数字利维坦”。比如,一些国家的警察机关运用数字技术预防和侦查案件,就是把数字技术与公共权力结合的典型。另一方面,运用数字技术也能分解公权力固有的属性和弊端。比如,数字技术可以促使权力去中心化和扁平化,避免低效率、不平等和权力寻租等现象。可以想象的是,数字技术可以强化或优化国家权力,也可以分解或弱化国家权力。它可能带来治理效率的提高,同时它也构成侵害人的权利或人权的巨大风险。目前所知,数字技术在中国主要被应用于行政领域(如电子交警和智慧城市管理)、社会管理领域(如小区门禁人脸识别)和司法领域(如司法AI辅助系统)。其带来的主要风险包括:自动化公共决策的数字权力风险、政府管理中对个人实行监控的数字权力风险、司法AI的辅助性或咨询性的数字权力风险、司法AI的实质性或决定性的数字权力风险。总而言之,国家把数字技术应用到公权力运行过程而产生的新型公权力,可被称为“数字公权力”。

既然数字私权力有私欲,那么数字公权力是否有“公欲”呢?数字公权力的“公欲”有何特点?原则上讲,“公欲”是具有可控性的,正如公权力具有可控性一样,因为法治国家往往都有理性的决策机制和政策推进机制。但是数字公权力的“公欲”又表现得异常复杂:第一,我们知道“管理贵在神速”在政府管理中是一种被竭力追求的目标,政府管理的效率越高,越热衷于自我扩权。第二,数字技术又加快了这种扩权欲望的实现。第三,权力持有者个人的欲望与公权力欲望会有高度的结合,因为“抽象的公权力必须具体化为具体职位并委托给权力持有者,即在公众和公职者之间建立‘委托—代理’关系”,因此,“公权力的公益性与权力持有者的主观能动性之间的矛盾至少在当前难以被规避,它根源于公权力所有权与持有权的分离”。第四,公权力的“公共利益”理由如多数人的“安全”成为数字公权力扩张的最有利借口。以对个人实行监控的数字公权力为例,它得以存在的理由来自于秩序与安全,尤其是当今世界恐怖主义横行以来,安全的不可控性就更显严峻。总之,在如今的数字化时代,数字安全和数字效率成为公权力利用数字技术的强劲动机和理由。这就是数字公权力背后的“公欲”可控性与复杂性的双重特点。数字公权力可能会使政府变成“数字利维坦”,因此,公众的讨论不应局限于数字技术带来的新的经济、工作和社会关系形式,而应触及新的数字政府。这是数字权力应被纳入法律使其成为法学与法律概念的第二个理由,是数字人权得以证成的第二个思路,也是“数字法治”被提出的第二个逻辑起点。

三、风险:两种数字权力正在威胁人权和重塑法治

从数字权力的社会性影响来看,数字权力是否已经产生普遍潜在的社会性风险?这些风险是否会导致权力、权利与责任的重新分配?下面要进一步论证这一点。如前所述,私欲的自我控制性差,但只要政府和法律是有效的,就能够对它实行外在的控制。“公欲”是具有可控性的,因为法治国家都有理性的决策机制和政策推进机制。但是在公共目标与手段发生矛盾的情况下,“公欲”也会无限膨胀。因此,数字权力带来的风险可分为以私欲为基础的数字私权力之风险和以“公欲”为基础的数字公权力之风险。

(一)以私欲为基础的数字私权力之风险

第一,数字私权力对数字技术消费者构成了威胁。这种风险受到国内外法学界的关注最多,其主要表现为隐私风险、黑箱操作、歧视或不平等、大数据杀熟等等。这种风险会直接威胁数字技术消费者的人身权和财产权。数字经济的基本商业模式为通过吸引用户注意力来获取和利用数据,所以才会有“我们不是用户,而是产品”的极端结论。不少学者已经意识到,在数字经济中,“赢者通吃”已经成为新规则,社会身份和财富不再仅靠劳动和投资来获取,而更多的是通过占有信息、数据和赢得算法来获取。数字鸿沟逐渐转换成等差鸿沟,身在底层的人很难再翻身向上流动。因此形成了“所有的数据都由我们自身产生,但所有权却并不归属于我们”的局面。更严重的是“信息茧房”效应,信息茧房会对人的自由意志产生无形影响。算法主导者的权力偏好,将加密这一自我封闭的组织结构。数字个体“作茧”的过程同时是数字权利流失的过程。信息过滤机制(包括算法推荐)让我们只看到我们想看到的东西、只听到自己认同的观点、只跟观念相同的人交朋友,这些观点不断重复之后不断加深,最终形成了一个只能听到自己声音的“密室”。信息茧房会不断强化人们自身的观点,排除其可错性,使人们形成认知偏差与认知情绪化,从而强化个体的差异性与多元性,在一定程度上会瓦解社会共识,造成社会的矛盾与分化。

第二,数字私权力对国家权力以及公共安全构成了威胁。这种威胁主要表现为,数字技术在网络、物联网对不特定的主体进行网络欺诈、网络监控、网络攻击,从而导致国家权力失去对公共安全的控制。此外,政府掌握的数据量远远不如数字技术企业多,政府的算力也弱于数字技术企业,二者处于不对等地位。甚至在生活类数字技术产品的使用中,还可能存在着个人权益和政府权力丧失的情况。以智能汽车为例,有国外学者认为,与智能汽车数据相关的许多风险是负外部性的,如数据泄露导致的智能汽车消费者身份被盗窃,政府或企业监控导致智能汽车消费者的自主性丧失等,这些风险主要由智能汽车消费者承担。既然消费者承担了大部分成本,那么谁将获得大部分好处?显然是数字技术企业。有中国学者指出,数字经济固有的特性及其资本运作在社会各领域的广泛渗透,致使政府的微观权力产生了弱化的趋势,这将对公共权力的权威性产生负面影响,甚至干扰公平正义的社会秩序。一旦数据处于无力被保护以及非法被利用的状态,就有可能危害国家主权、安全和发展利益。另外,有学者看到了数字私权力对未来政治的威胁。该学者认为:“算法政治不再是左右选举、操控舆论这么简单,一定程度上还在改变着未来的民主形式。算法作为一种机器公式和语言,正在塑造代码化的法律和数字新型权力的底层逻辑。代码语言与权力表达的融合造就了新型权力政治的武力数字化、私有化、自动化,一个从技术奇点到政治奇点的新型权力配置机制正在形成。”

第三,现有法律难以规制数字私权力。应对此种风险,需要在法律上采取特别措施。对数字私权力的法律规制为何必须是特别的?数字私权力必须受到传统民事法律的约束,这已经成为共识。那么其为何还需要法律的特别规制?一是因为民事行为法定的自愿性被数字技术降维了——人们并不清晰地知晓自己已经放弃了某项权利和自由,实际上是数字技术的强迫应用导致了这种貌似的自愿、自主或自治。二是因为数字私权力不只会侵害个人数据、信息和隐私,还会对既定法律秩序产生风险。原因在于,数字平台常常处在技术垄断、知识垄断、信息垄断甚至市场垄断的地位。比如,在最主要的加密货币比特币诞生数年后,欧洲央行(European Central Bank)解释了当前的法律框架如何适用于加密货币。然而三年后,欧盟的所有机构,包括议会,都没有采取任何有意义的措施。这说明现有法律难以规制加密货币。2018年,有学者研究了欧盟对加密货币的法律适用。该学者提出,可以将集中化和创建国家加密货币作为可能的解决方案,并分析了它们的优势和挑战。2019年的一篇著名文章十分明确地认为,应该将拥有数据权力的公司视为“公用事业”,并对其进行特殊的监管。

以上三种风险所产生的法律责任,当然应当主要由技术使用方承担。但技术提供方也存在一定的责任。如何归责以及双方如何承担责任,需要法律对其进行分配。因此,对于数字私权力,我国的法学领域要关注更多深层的问题。其一,数字私权力可能在哪些新领域对权利构成威胁?其二,对于数字私权力的法律规制,哪些是无法有效实施的?这涉及数字私权力如何挑战着传统法律、传统法律在不变革的情况下是否能够完全应对数字私权力带来的风险,以及法律可生长出怎样的有效规制数字私权力的规则等问题。其三,在肯定和倡导数字经济创新的决策背景下,法律政策对数字私权力应当抱怎样的态度?

(二)以“公欲”为基础的数字公权力之风险

在这个数字公权力日益强化的社会中,出现了公共目标与手段发生矛盾的情况。这种情况不仅会威胁到个人一系列的权利,更挑战了既有的法治秩序和人权底线。这就导致了国家不得不建设数字政府,但又不得不防御数字政府。政府利用数字技术进行社会监控与社会治理,会引发三种典型情境下的风险:

第一是侦查新技术应用所导致的人权风险。有学者对刑事领域现有的数字侦查手段作了研究,包括网络搜查、个人定位、电子数据远程在线提取以及从第三方调取生物识别数据等,并分析了其各自所具备的特别风险,包括威胁公民个人隐私权、个人信息安全、数据权利、平等权等。该研究所分析的侦查权扩张欲和侦查人员个人窥私欲,就属于数字公权力背后“公欲”的两种类型。前者是具有普遍性的权力扩张的“公欲”,后者是公权力与权力持有者个人公私欲相混合的欲望。那么,当侦查机关在通过第三方(企业或社会管理部门)简单易行地获得行为识别数据,从而避免了数据主体的“抵抗”时,会大大减弱权力制约程度——这时“公欲”找到了“替身”。“行为识别可以让一个城市在不需要人员的情况下保护大片区域,从而最大限度地提高安全性,降低员工成本。”这个员工成本包括雇佣侦查人员在内的政府管理人员的成本,减少行政成本当然也属于“公欲”。2007年,美国匹兹堡市制定了一项关于将闭路电视系统摄像头连接起来以便对不同区域进行监控的计划,这还只是传统的监控手段,却引起了人们对未来“行为识别”的警惕。匹兹堡大学法学院一位教授撰文指出,行为识别技术与更广为人知的面部识别技术有共同之处。他认为,在匹兹堡实施行为识别技术之前,针对这种新技术应用的规则必须被落实,以解决美国宪法第四修正案提到的和行为识别技术使用中固有的一般隐私问题。公众应该意识到这种技术在公共场所的使用应当受到限制,只有根据执法部门发布的有效搜查令,私营企业等第三方才能够发布其收集的行为数据。在没有搜查令的情况下,个人不应该在大范围的地理区域内被跟踪。执法部门应该设计程序上的指导方针,指导第三方企业何时以及如何使用收集到的信息。政府应用数字技术而产生的数字公权力所导致的风险,当然由政府承担法律责任。

第二是因政府作出的数字化决策缺乏可解释性,而可能导致政府公信力危机甚至权力失控的风险。公权力决策黑箱因解释难题又被增加了一层技术屏障。有学者研究出了一种“反事实解释”(Counterfactual Explanations)方式,这是在未打开黑匣子的情况下可进行的一种解释方式,被称为一种新的轻量级解释方式。在英国,几位学者与英国信息专员办公室在其合作进行的研究中开发出了一种新的经验,即政府可以从审查的线索或来源入手,构建对此类数字化决策的解释。他们在一个实验决策场景中,将决策管道工具化以记录审查线索或来源,根据受众及监管目的对相关解释进行分类,构建解释生成原型,并将整个系统部署在在线演示器中。但据说这个项目在隐私、公平、偏见等方面仍存在新的隐患。在数字化决策的研究中,如果说最大的难点是决策的可解释性问题,那么足以说明政府权力行使者自身是难以操作数字权力的,数字权力因此可能凌驾于政府权力之上,也因此可能凌驾于人权之上。这里需要把对数字技术的解释责任课予技术应用方即政府,由政府与技术提供方承担连带责任。

第三是因政府运用数字公权力与数字私权力交替配合的方式来行使管制权所导致的风险。有非洲学者研究认为,在非洲,国家和社交媒体公司的联手行动导致人们在互联网上行使的言论自由权不断受到围攻。尽管现在已经步入数字时代,但是国家一直在实施这种限制人们言论自由的手段,包括关闭互联网、制定压制性的国家安全法、审查互联网和进行数字监视等。此外,社交媒体公司对其平台上用户生成的内容享有不受约束的权力,这种可以对内容进行限制的自由裁量权持续威胁着人们的言论自由权。该研究特别指出,“与主权国家一样,社交媒体公司主张其对用户在其平台上生成的内容享有‘利维坦’式的权力。从它们在自己的空间里作出的武断和有争议的下架决定,可以明显看出它们不断增长的权力,它们对用户生成的内容采用不守规矩的标准,并且总是采用激进的内容审核做法”。中国学者也意识到,一些企业已经日益嵌入人们的日常生活,这些企业拥有的权力具有准公权力的性质或者公权力的一些属性。很多机构所具有的公共性属性与商业性属性已经变得很难被区分。这种情形告诉我们,平台在拥有数字私权力的同时,又以“公欲”替身的身份,代表国家行使数字公权力。因此,在这种情况下,政府与平台都是责任主体。

从以上分析可知,在规范层面上,数字公权力已经涉及新的权力、权利及责任分配问题,并且需要重新界定法律归责主体。数字公权力带来了更多重要的法学课题:其一,如何避免数字公权力对人的权利或人权的侵害?其二,如何避免数字权力对法治秩序的威胁?其三,数字技术具有怎样的影响和改变法律制度的负面和正面的能力?其四,在数字技术与法律之间实现科际整合,借助于技术力量,在局部产生更高级的法治方式甚至更高级的法治是否可能?

四、态度:数字权力塑造良善法治的可能

囿于技术与法律分工分科的原因,数字时代的法学表现出了对秩序的忧患感和对技术的陌生感。因此,法学学者大都对技术抱有警惕和谨慎的态度,这决定了多数法学学者强调应该加强对算法技术和数字技术的规制,并提出如何对其进行规制的建议。而其他社会科学学者是如何看待数字技术的呢?这些学者大多是持乐观态度的。比如经济学家看到了数字金融在中国经济中的优势地位;文化学者看到了数字技术与文化发展关系中的“数字技术赋能”,认为“数字化成为目前非物质文化遗产保护与传播的主要方式之一”;教育学学者的研究结论是“数字技术的赋能可以有效地推动高等教育高质量发展”;更不必说数字化新媒体传播技术给新闻发展带来的优势。总之,对于数字技术,持乐观态度的社会科学学者占绝大多数,持担忧态度的只是少数。

由此可见,在我国,相比于其他学科的学者,多数法学学者对数字技术和数字权力持有普遍的担忧和防范态度,因此,其中的大多数都建议应该从法律上对数字权力进行防范和规制。而对此抱有乐观态度的法学学者只占少数。究其原因,这是法学学者的学术职责决定的。然而,这种防范大于乐观的态度是否有所偏颇呢?法学学者在不熟悉数字技术这一点上与其他社会科学学者是平等的,相比之下,法学对数字技术的忧患意识却大于其他学科,这种只从“忧患”上研究“规制”而不从“乐观”上研究“开发”的态度,至少是一种集体的偏颇。

那么,法学应该以何种态度看待数字技术和数字权力?初步观察,中外法学群体的态度光谱似乎是这样的:有欧洲学者式的坚决反对和限制派,有中国学者式的普遍担忧与规制派,当然也有中立派以及数字权力化的积极助推派。那么,是否还应该有另一种积极派,即支持抑恶扬善,强调规制与引导并存的一派?未来的数字法治能否有效和成功,取决于我们的态度,一味地警惕和谨慎,只能导致消极的规制而缺乏积极的向善引导。多种态度并存是正常的,但中国法学至少要避免欧洲式的悲观与谨慎。因此,本文主张法学要保持审慎与乐观并存的理性态度,更多地从“抑恶扬善”的积极目标去看待数字技术和数字权力。

总体上看,两种数字权力在今天带来了一定风险,在未来还可能带来更巨大的风险。这两种数字权力目前成为了数字社会秩序中无可匹敌的强势方,共同影响着社会中的个体。今天的人们,在生活与工作等方面享受到了数字技术带来的巨大福利的同时,也感受到了数字技术给个人自由乃至身心带来的压抑感和疲倦感,这难道与数字权力的摆布与控制脱得了干系吗? 数字权力所具有的强制支配性的影响力和控制力,使参与数字社会秩序的主体权利受到更加不对称的挤占和侵害。在今天,与其将平台数字权力视为市场中的平等性权利而对其放任,不如揭示其垄断性的权力本质予以警惕。此外,数字权力还包括许多我们尚未意识到的权力内涵。我们应该警惕地意识到,数字权力可能对个人权利造成更深程度的影响和控制。当代新兴科技在社会中的广泛、深入应用,已经使数字技术贴近或紧逼每个人的肉身。随着生物医学技术、信息技术、大数据技术、互联网技术的不断发展和应用,诸如器官移植、基因编辑、人工试管生育、人脸识别、虹膜识别、指纹识别等个人信息数据采集与利用的技术不仅会损害人类生存环境,还正在尝试着对个人身体完整、行动自由、身心健康、人格尊严进行侵害。这是一个严峻的事实,并且这些问题正在向广度和深度上蔓延。技术可能会摧毁人类自身所独有的、不可替代的珍贵财富,包括生命、身体、自由、健康、尊严和智慧。如果不慎防、不驱除那种技术带来的现代性神话,人类的技术创造会使自己陷入各种“自作孽,不可活”的困境,人类自身的珍贵财富可能在技术滥用中走向毁灭。因此,如果不从以人为本的人文关怀进行反思,不从人文主义的法律价值来正名,那么技术与人类的关系、法律与人权的关系、权力与权利的关系会走向更紧张的明天。但是,法学学者对待数字权力的态度不应该只是一味地忧患,还应该乐观地看到目前数字权力的另一面——数字权力具有创新性、普惠性、包容性等具有公共性质的特征以及向“善”的积极面与发展面,因此,数字权力具有重新塑造更“善”的法治的可能性。

第一,与数字权力对应的权利应该增加相应的内涵。有学者论述了数字权利,认为“数字权利在本质上是一套独立的新兴权利,具有新的赋权方式、权利结构与运作逻辑,而不只是‘带有数字内容的传统权利’”,“在体系构造上,可建构数字生存权、数字人格权、算法正当程序权、数据财产权四元并存的权利架构体系”。笔者赞同这样的观点,同时也同意数字人权的提出。“数字人权从内容上可分为数字生存权、数字自由权、数字平等权、数字救济权四类二阶权利,并进一步衍生出一个具有开放性的权利体系。”在传统法律领域,权力与权利往往是此“起”彼“伏”的损益关系;然而,在数字时代,一个有趣的现象是,在数字权力扩张的同时,人的某些权利也得到大幅扩张。这个现象表明,权利主体与权力主体常常都是数字技术的受益者,因此,权利主体有时对数字权力的侵入和威胁并不反感。进一步观察我们会发现,在传统权利之外,还存在某些新兴的权利,它们在受到限制和减损的同时,也会受到法律的确认和保护,这就是数字权利具有的发展性特征。

第二,数字权力可以分解和优化过于集中的政府权力。政府权力过大,有时会导致政府过多地干预市场和过宽地管制社会的现象,而这种现象的确因数字权力的介入而被缓解。不仅数字公权力可以实现这个效果,数字私权力也可以达到这个效果。其个中奥秘在于:数字技术具有去中心化功能,因此,完善的数字技术可以推进社会机会平等,实现个体与社会的自治性,分担政府管理职责,减轻政府监管负担,提高政府管理效率等。数字私权力在这里可以起到主要作用,比如在深度融合区块链技术的新兴金融业态,有学者已经注意到,应当“引入去中心化自治组织治理模式调节硬性规制思维,通过柔性方式协同公权力机关实现对本行业的业务监管、数据监管与科技监管”。然而,毕竟数字私权力是服务于私利的,它既然能干好事,也一定会做坏事。因此,也有学者指出:“掌握了人工智能核心技术与海量数据的科技巨头及少数知识精英,在资本与数据逻辑的主导之下,获得了处置个体信息甚至控制政治议程的权力,原本由网络空间分散的个体所掌握的话语权向新兴资本与知识中心聚合,使得人工智能时代的权力结构又呈现明显的集中化特征。”因此,能否建构一种适应数字时代的新型法治,使其既可以解决数字私权力的威胁,又能利用数字权力分解国家权力,形成数字权力与国家权力的新秩序,缓解过分集中、过度干预和寻租腐败的问题呢?

第三,对数字技术的乐观还体现在我们未来有可能设法通过技术与法律的整合来构建比传统法治更高明的框架。以人工智能在司法领域的应用为例,2022年,Open-AI公司设计的Chat-GPT问世,在免费使用情况下,哥伦比亚的一名法官曾用其起草了一份法庭裁决,这显然是世界上第一份使用Chat-GPT起草的裁决。裁决包括聊天机器人的完整回答,以及该法官自己对适用法律先例的见解。尽管该法官表示,使用人工智能只是为了“扩展已采纳决定的论点”,但其确实可以“加快起草裁决的速度,而且它的回应是经过事实核查的,但这可能是一个迹象,表明人工智能正在得到更多的法律和司法用途”。当被要求对法规包含的法律术语进行定义时,Chat-GPT表现得非常好,其正确地提供了与美国联邦法院和州法院相一致的答案。在另一项测试中,Chat-GPT批评了自己的法律能力,并承认了自己的局限性:“我提供法律咨询是不符合职业道德的,因为我不是一名合格的法律专业人士。”测试者在与Chat-GPT对话后说,尽管有些答案“不完美,有时有问题”,这个机器人可能还没有“准备好进入黄金时段”,但“似乎并不遥远”。该测试者指出,“因为Chat-GPT是一个机器学习系统,在解释法律原则和先例时,它可能没有人类律师那样的理解和判断水平”。2023年又出现了AGI语言大模型。我们尚未了解它应用于司法领域的潜力,以及其技术水平相较于以往任何模型的技术水平会有怎样的倍增,但我们可以断言,基于语言大模型的司法AI研究开发是有可观前景的。

此外,在2023年即将结束时,一则来自英国的最新消息令人关注。英国一个跨司法管辖区的司法小组制定了一部人工智能应用于司法的“指南”,这是人类历史上第一部人工智能司法指南。英国司法官网(Court and Tribunals Judiciary)已于2023年12月12日发布了该《AI-司法指南》。其发布的消息第一段就指出,“人工智能在整个社会的使用持续增加,它与法院和法庭系统的相关性也在增加。所有司法官员都必须意识到潜在的风险。正如指导文件所强调的那样,特别重要的是需要意识到这些工具的公开版本本质上是开放的,因此不应将私人或机密信息输入其中”。“该指导意见是支持司法部门与人工智能互动的一系列未来工作的第一步。随着技术的不断发展,所有工作都将受到审查。”将“发布常见问题解答文档以支持该指南”。这段话,非常谨慎地指出三层意思:其一,司法与人工智能存在相关性,且这种相关性在不断提高。其二,其强调了人工智能应用于司法存在的潜在风险,如会对信息保密问题构成威胁。其三,其对“支持司法部门与AI互动”的指导意见进行肯定,并预示性地指出这是“未来工作的第一步”。这份长达6页的指南首先指出,“本指南旨在协助司法官员使用人工智能(AI)。其列出了与使用人工智能相关的关键风险和问题、一些最小化的建议以及潜在用途的示例”。“在使用任何人工智能工具之前,确保您基本了解它们的功能和潜在的局限性。”这份指南在以保守著称的英国,不得不说是一种重大的突破和对未来的某种谨慎乐观的预示。

在“抑恶”的思路之外,如何利用数字技术和数字权力助力法治“扬善”,从而增进人类的福利?这是数字法治在人工智能进入AGI时代所面临的更高阶课题。之所以对数字技术的未来持乐观期待,是因为科技具有巨大的魔力,被规制的科技也可以“扬善”,从而增进人类的福利,甚至为人类的“共同善”推波助澜。因此,数字技术同样可以为实行法治、保障人权助推。当代新兴科技可以通过增长人类能力来造福人类,也可以为中国法学自主创新创造契机。我们的法学应该以开放的态度,张开双臂迎接新科技。

法学的态度与法治对数字权力的态度相关联。法学学者的态度是相对理性的,而国家职能部门或地方政府在决策时,往往受“公欲”影响而出现非理性的态度,所以政府应当听取法学学者的意见。但凡权力都应当被关进制度的笼子,数字私权力与数字公权力也应当如此。数字技术的社会性决定了数字权力法治化的源起,数字权力的出现也决定了法治要将其纳入秩序范围,这也决定了数字法治的必要性。因此,“数字法治”概念的产生是必然的。数字权力与传统权力的共同点在于二者都接受法治的控制;二者的不同点在于,数字权力在接受法治控制的同时,还能够改善法治,造福人类。利用数字权力可以建立起更优化的法治秩序结构,塑造一个能够“赋能扬善”的法治。

五、使命:数字法治的意义

我们从两种数字权力的发展趋势中,可以推导出未来法治的发展趋势以及出现数字法治的必然性和应有意义。从不同的任务使命来看,数字法治就像教育法治、财税法治、金融法治等行业领域法治一样,只是作为一个新兴行业的领域法治迅速出现。但是数字权力又无所不在,广泛影响着人类的社会生活。无论在哪个领域,都有数字技术和数字权力的大幅介入,故而数字法治又是全方位、全时空地覆盖和叠加着传统法治。这是数字法治随着数字技术发展而迅速崛起的主要原因。目前,人类面对数字技术的迅速崛起而陷入了两难选择:人类既不能放弃数字权力,也不能放任数字权力。因此,人们把寻求解题的思路转向法律和法治。那么,数字法治与传统法治的不同之处是什么?或者说数字法治应当关注哪些特殊问题?一方面,基于数字技术应用的利弊双向特征,数字权力也如公共权力一样,需要被关进制度的笼子,这是消极意义上的法治路径和模式。另一方面,法律可以借力数字技术给人类赋能或拓展人类的福利,这是积极意义上的法治路径和模式。基于此,我们不难发现,更优化的法治秩序结构存在序位由低向高的三大使命:抑制技术向恶,优化法治模式,助长技术向善。下面有必要阐述这三个使命。

抑制技术向恶,是指寻找数字权力的技术风险点,并及时对其加以规制。这种对技术的规制即属于消极地“抑恶”,这种规制可以通过法律或者数字技术本身来实现。数字风险和其他传统风险不同,在数字风险中,受到威胁或保护的对象并不能直接感知到这种风险的存在。“数字风险在本质上是非常独特的,因为它们不会在物理上危及我们的生存——这可以从环境、健康或安全风险中看到。相反,除了数据隐私和信息安全之外,数字风险还会影响人们的权利、政治自由(包括民主的运行),并最终影响人的尊严。”数字风险的这种独特性使公民更难以识别它们。

数字权力的风险点必须从数字技术内部去发现。这里可以列举四个例子:其一,有学者以算法导致的侵权赔偿案件(如无人驾驶车辆交通事故案)为例,认为适用于算法的侵权框架与适用于人类的侵权框架应当有显著不同。基于此,他建议为算法决策者的侵权行为制定一个“合理的算法”标准,这种标准应当类似于适用于人类侵权者的“合理的人”或“合理专业”的标准。其二,正如人们已经发现的算法权力的弊端和风险,有学者敏锐地看到大数据和数据质量也存在风险,法律应当为数据质量提供一个标准或框架。该学者认为,数据权力与知识、数据的获取和利用有很大关系。但在有关数据权力的辩论中,数据质量的问题几乎从未被提起过。这是因为目前缺乏关于数据质量的法律标准。欧盟《数据保护指令》第6条和德国《联邦数据保护法案》(BDSG)第28b条中关于得分的规定隐藏了对这一问题的首次监管尝试。由此,借助计算机科学和社会学的初步研究,我们可以为数据质量的法律标准建立一个临时的、零碎的框架。其三,算法中的因果关系问题尚待解决。在人工智能黑匣子问题上存在因果关系与意图的核心难题,目前的法律原则是否可以适用于此?2018年,Yavar Bathaee在其撰写的《人工智能黑匣子与意图和因果关系的失败》一文中提出一种“滑动比例系统”(A Sliding Scale System)。其认为,这是一种解决因果关系与意图测试的更好方法——在允许AI自主运作或AI缺乏透明度时放宽对其的责任要求,同时在人类监督AI或AI透明时保留传统的意图和因果关系测试。其四,有国外学者提出了更前沿的、目前难以规制的风险。他认为,数字风险不限于侵犯我们的隐私,还可能影响我们更深层次的自由意志。“数字技术努力吸引我们的注意力,并可能将我们困在某种意识形态框架或“过滤泡沫”中。它是一个‘友好的老大哥’,比我们更了解我们自己,它可以调节我们的思想和观点。甚至有更具侵入性的技术正在被开发中。”可见数字权力这种利维坦还具有不断强化的特点,如何“抑恶”更成为难题。

优化法治模式是指,在数字法律实践中发现和确立新的价值观,更新法治理念,优化未来法治。数字法律实践已经全面覆盖我们的生活,我们在坚持传统法治的价值观体系的同时,是否还要赋予法治一种新的价值内涵?比如,有位国外的法官讨论了在司法中使用人工智能的新原则问题。他认为,法院和法官的工作应当受适当程序标准的制约,《欧洲人权公约》第6条对此进行了规定。此外,欧洲委员会制定了在司法中使用人工智能的伦理原则,这五项“伦理原则”包括尊重基本权利原则、平等待遇原则、数据安全原则、透明度原则以及AI能被用户控制的原则。同样,《卡夫卡式AI?》一文也认为,建立人工智能在司法决策中的使用标准,需要参考机器伦理、程序正义理论、法治和正当程序原则。文章讨论了公平、问责、听取意见的权利以及尊严和尊重等权利。此外,该文章还提出了解决现有问题的潜在方案。因此,其结论是,人工智能对人类的决策不一定是卡夫卡式的。许多解决方案不仅可以改善当前人工智能技术的缺点,还可以丰富和加强法律体系。这些新的伦理原则实际上是法院和法官在司法理念上的更新,其根本出发点还是数字时代法治理念中关乎人权的新问题,因而传统的法治理念也会发生演进。

数字法治是否应该确立某种基于人权的新的基本原则?中国学者已经敏锐地意识到,数字权力关乎人权。张文显教授指出,“‘数字人权’同时成为最重要的新兴权利”。“‘数字人权’要求数字科技以人为本,要求以人权的力量和权威强化对数字科技开发及其运用的伦理约束和法律规制。提出‘数字人权’概念,是引领新一代人权的战略需要。”这个观点得到许多学者的回应,但也有学者认为数字人权不是新一代人权。高一飞认为,“数字人权既不是与现有人权并列的新类别,亦不可简单将其归类为某一人权价值之下的新内容,而是强调在适度区隔人权与权利的前提下,重申数字时代人之于科技应用的自主性价值,并将人权作为评价或指引数字科技应用的价值准则”。他还进一步提出,要将数字人权从价值观念转化为融贯于现有法律体系的制度规范。还有学者认为,“‘数字人权’的权利主体包括个体和集体,义务主体主要指向具有数字权力的企业和部分公共机构,二者呈对抗与合作的深度交融关系”。这些研究都是关于数字法治价值观和基本原理或原则的研究。无论数字人权是否构成新一代人权,数字人权问题都是一个客观存在的、我们必须加以重视的问题。

助长技术向善,旨在通过法律促进数字技术积极地“扬善”,优化法治秩序结构,增进人类的福利。正如科技专家把数字技术应用于医疗健康领域一样,随着数字技术进一步发展,法学家与科学家是否应当考虑数字技术应该如何给法律、给人民带来更多的福音?目前,我国已经有行业开始利用数字技术进行合同合规性审查,从而预测法律风险。有国外学者在2017年已经提出可以利用人工智能和算法来保护个人隐私。再比如,国外有学者就“数字技术应用于法规制定”问题作了研究,如通过网络平台广泛地向公众提供有关规则制定的材料,使公众能够大规模参与到规则制定过程中。还有学者针对欧洲理事会电子投票协议设计进行了研究,就电子投票系统中的投票保密性和可验证性进行了探讨。该领域更前沿的研究还有对“电子平台应用于规则制定过程”的公众参与的研究。该项目研究者认为,电子规则制定平台便于公众对政策或监管建议的审议,使决策者能权衡相关考虑,可以促进公众对政策或监管建议的审议的数字咨询过程。

倘若以科幻思维大胆构想未来,以数字法治为核心的更优化的法治秩序结构给人类带来的最大的福利应当是什么?我们从人类法治的固有弊端出发,可以设想这一美好未来。传统法治理论告诉我们要遵循法的“一般性原则”。该原则强调规则就是规则,具有“一刀切”的特点,但是这必然会导致个案中的不合理甚至不正义。这是形式主义法治的弊端,也是实质主义法治的难点。如何克服这种形式主义法治的弊端?如何达成个案中的个别正义又不导致滥用所谓实质主义法治?这是人类执法和司法中存在的显著难题,而利用数字技术从实质上解决这些难题是有可能的。当今,低成本的信息收集和智能评价工具已经出现,正如有学者分析的,“对大众日常行为进行评分”,“可以帮助将更多细节行为纳入管理”。这固然会给人的权利带来被侵害的风险,但同时也可能带来法治的福音。2019年以来,学界出现了有关“个性化法律”(Personalized Law)的话题。这个设想来自于Ben Shahar教授和Ariel Porat教授的著作《个性化法律——不同的人有不同的规则》。宾夕法尼亚大学的Cary Coglianese教授评论认为,这本书从对一般规则局限性的重要认识开始,描绘了一个充满希望的未来愿景,即通过算法系统克服这些局限性,从而作出基于法律目标的个性化决定。比如,为了增强“商业航空公司的飞行员65岁退休”这一现行规则的个性化,可以将其改变为“商业航空公司的飞行员必须从40岁开始经常进行健康检查,并在65岁退休”。从这里可以看到,两位作者构想着一个普遍性规则更少、个性化决定更多的世界。随着目前预测分析工具即机器学习或人工智能的进步,其开始被允许在各种环境(如医疗和营销)中作出更精确的、个性化的决定。Cary Coglianese最后总结认为,Ben Shahar和Ariel Porat阐述了一种愿景,即建立一种在数据驱动、微调法律义务基础上的更加个性化、有效和公正的法律体系。社会能否实现这种充满希望的愿景,取决于其能否克服个性化法律的挑战——但不一定要完全克服这些挑战。美国加利福尼亚大学教授Dan L. Burk在《算法合理使用》一文中认为,“与其他人类制品一样,法律的边际成本受益于规模经济;标准化的、一刀切的法律法规可以被经济地制定和颁布,它(法律)也许就像一套量身定制的西装一样,由法院或其他裁决者在供应链的末端进行一些剪裁。但即使是适度的司法调整,也会极大地增加适用法律的成本,而定制监管的罕见案例甚至更具社会成本。技术进步可能大幅降低定制监管的成本。这种‘个性化法律’的潜力取决于无处不在的数据收集和算法数据处理的发展,以及实时通信成本的大幅降低”。他也承认,关于算法监管的大量且不断增长的文献已经警示我们依赖此类技术所固有的陷阱,包括虚假的客观性、决策透明度的降低和设计上的偏见,这些局限性将不可避免地影响用户对其管理流程的期望。如果存在Dan L. Burk所谓可靠的算法,那么“个性化法律”在法律的局部领域所作的先行先试,使我们可以大胆预见个性化(Personalized)和人性化(Hommization)的数字法治或未来法治的新框架。在这个意义上,数字法治已经涵盖了“计算法学”和“未来法治”的全部内涵。

六、结论

综上所述,法学不应该只把视野限定在数字技术本身,还要扩展到数字技术在社会应用领域产生的正负面效果,如此,才能发现实质性问题:法学要密切关注技术社会化带来的法律上的特殊规制对象——商业与国家两个领域的数字权力,也就是数字私权力和数字公权力。数字权力会导致人的基本权利面临一定的风险,也会引起法治秩序被破坏的风险。数字权力作为一种新型的权力,不论是从事实层面来看还是从规范层面来看,都是具有法律性质的权力,因此应该将其纳入法学范畴,进而也应当将其纳入法律概念体系,从而使其被法律所规制。由此,“数字法治”的概念应运而生。法学学者所要担忧的不是科技自身进步的问题,而是应该如何利用数字技术及其所带来的两种数字权力抑恶扬善从而塑造一个能够“赋能扬善”的未来法治的问题。我们有理由相信,数字技术在法律与伦理的约束下,可以实现人类未来的福利。这才是中国数字法治的重要使命和美好未来。

此外,数字法治在技术实验上有两个问题值得我们关注:第一,数字法治的重大课题离不开法学家与科学家的协作。若缺乏科学家的参与,数字法律工具的设计几乎不可能完成。而缺乏法学家的参与,数字法律工具的定位只能是一种辅助性工具。在今天Chat-GPT生成式语言大模型的基础上,我们有没有可能设计一种垂直的、法律专业性更强、法律价值观更端正的语言模型?这就取决于法学家在智识上的参与深度了。第二,中国法治发展有一些特点,比如法治的发展需要自上而下的体制性推进。中国法治发展还有一个机遇,那就是官方对数字技术的积极态度(相对于欧洲)带来的数字法治发展机遇。如果把机遇与特点很好地结合起来,中国自主性的法学与法治事业是否有可能崛起于数字法治领域?

(原文刊载于《法制与社会发展》2024年第2期)

1717296508157590.png

《数字法治》专题由上海市法学会数字法学研究会特约供稿,专题统筹:秦前松。