作者:余圣琪,上海政法学院讲师、华东政法大学博士后研究人员。
在当今的数字化时代,以聊天机器人模型(ChatGPT)、聊天机器人(Bard)、大型语言模型(Claude)为代表的大模型发展迅猛。大模型是一种基于神经网络架构的深度学习算法,展现出强大的语言理解和内容生成能力。它赋能百业,自然也在数字政府和数字司法的公共决策中得到了广泛应用。这些公共大模型决策为公共服务带来了全新的技术支撑,大幅提高了公共服务质量和社会治理效能,改变了传统的科层化治理结构。但是,公共大模型决策也带来了程序合法性的挑战、人机价值对齐、权力的技术化扩张等法律困境和风险。因此,如何确立对公共大模型决策的法治化约束框架与机制,从而更好地发挥其赋能数字政府和数字司法、促进社会治理的积极效果,成为一个十分重要而紧迫的时代课题。
一、公共大模型决策的法律属性和范围
在当今数字时代,“所有事物的出现是信息处理,这里,整个世界像一台庞大的计算机,这台计算机‘计算’出所有存在的事物。”因此,从工商社会的“物理空间”政府和司法迈向数字政府、数字司法便成为一种全球趋势,公共大模型决策也随之扮演越来越重要的角色。公共大模型决策是以预训练模型为技术底座,基于海量的大数据分析和千亿参数的微调,以提高公共管理决策准确性和效率为目的的算法决策,从而促进数字化时代公共服务的总体性转型。如美亚柏科发布的“天擎”就是国内首个公共安全大模型,它具备警务意图识别、警务情报分析、案情推理等业务理解和推理能力。在超千亿的文本以及超十亿图片的数据训练基础上,实现了行业知识、业务问题、解决反馈的全流程闭环净化。而华为云联合深圳市气象局发布的“智霁1.0”则是首个人工智能区域预报模型,它以华为云盘古气象大模型为基础,融合区域高质量气象数据集,可快速实现5天内3公里精准天气预报,为气象科技能力现代化和社会服务现代化做出了贡献。可见,公共大模型决策通过智能化手段提升社会治理的自动化、精准化水平。然而,目前对于公共大模型决策还没有法律上的界定,学理上也没有形成统一的认识,亟待予以理论厘清和法治化规制。
(一)公共大模型决策的法律定位
随着网络化、数字化、智能化的交融迭代发展,“计算和算法的观念为人类提供了一种认识和理解世界的方式”,形成了人机交互的自动化决策机制。其中,公共大模型决策无疑是数字行政、数字司法的重要载体和方式,它包括但不限于公安业务、司法业务、税务业务、民政业务、社会保障业务、文化体育业务等,在数字社会治理中具有突出的地位和功能。
其一,从治理上看,公共大模型决策开启了数字治理新模式。现代治理模式是立足于物理世界和自然人(生物人)基础上的,它主要强调对行为结果的控制,具有强烈的行为主义和事后主义的色彩。而进入数字时代后,我们实现了从对标准的依赖(事后裁定)过渡到更多地依赖复杂规则的可查询系统(事前可知)。数字时代新生了数字世界和数字身份,它们固然是物理世界和自然人的数字映射,但同时,又是与物理世界和自然人相平行的数字镜像,因而是“一个更具自主性且与物理世界在本体论上具有某种对等性的新世界。”公共大模型决策恰恰反映了这一时代要求,形成了新型的数字社会治理策略与机制。
比如警务人员运用美亚柏科研发的大模型(MYAI)的多媒体处理、智能关联和逻辑推理等能力,通过对警情的高效处理、智能分析、精准处置、快速归档,从而实现“提前知、提前控、全程知、全程控”的智慧监管执法模式。广西壮族自治区某区检察院,通过网拍房执行违法监督大数据模型,加强网络司法拍卖全过程监督,推动检察监督由个案监督向类案监督,再到社会治理的转变。法院通过新致司法大模型的风险智能预测、案件质量评查、调解辅助决策等功能,实现从“事后监督”向“事前控制”“个案纠错”向“全面评查”“案件审理”向“社会治理”转变。大模型具备深度学习能力、高效的自然语言处理能力、强大的信息检索能力,甚至展现出超人的理解力与创造力,这就为公共管理部门提供空前的数字赋能,进而实现从传统的事后治理向当代的自动化治理转型。
其二,从功能上看,公共大模型决策承担着塑造社会秩序的功能。在以往的工商社会中,法律主要围绕着人、物、事来展开社会秩序的构建与维护。而随着数字时代的到来,“信息已成为主导,成为每个活动的固有成分和燃料,信息处理无处不在。”此时,传统的决策方式就难以应对海量数据处理、复杂计算、流动多变的数字治理难题,这就需要充分利用生成式人工智能技术,有效发挥公共大模型决策在分配资源、形塑社会秩序中的建构角色。具言之,大模型可以通过整合海量数据,进行风险评估;利用相关关系进行趋势预测,从而公共管理部门利用大模型进行自动化决策。如“未来社区”警务模型决定了哪些社区会受到治安巡查,“秦岭·秦川交通大模型”决定了交通资源应该如何分配,“金融风控大模型”决定了谁可以获得贷款。由此可见,公共大模型决策基于数据和算法,重新分配着资源、利益、知识、机会等,它已经由简单的工具变成了重要“决策者”和指令发布者,通过分类、预测和调配来塑造社会秩序。
其三,从属性上看,公共大模型决策具有“准公权力”的属性。传统行政是建立在社会契约论基础之上,国家与社会、政府与公民的二元结构,反映着公私对立和制约平衡的精神底蕴。随着数字技术的发展,大模型决策被广泛运用于行政、立法、司法等公共领域,替代人类决策处理多元复杂的利益关系,而这些利益关系与社会福利、公共安全等公共利益息息相关。此时的大模型决策已经从技术工具的角色转化为公权力服务的一部分。其中,在公共管理部门运用大模型决策进行社会治理时,科技公司、头部企业等通过从技术层面建构大模型,部分享有公共管理权力、承担公共服务职能,从而打破传统行政的二元结构,形成数字时代的公权力、私权力、私权利的三元结构。
其中,政务大模型决策是数字行政行为的表现形式。行政行为是指行政主体作出的能够产生行政法律效果的行为。政务大模型是应用于政务领域的大语言模型,其强大的语义分析能力和深层次的理解能力为政务提供智能决策支持。政务大模型决策作为政府决策的一种新型方式,通常由政府或政府授权的机构开发和应用。当政府利用政务大模型进行决策时,这些决策结果将直接影响行政相对人的权利义务。正如贵州某公安局引入了政务大模型,建立了名为“数据铁笼”的智能交通管理系统。通过该系统的实时监控与预警、精准定位与追踪,交警部门成功拦截了一辆涉嫌故意遮挡号牌的重型半挂牵引车,根据大模型的辅助决策,交警部门对该车驾驶员作出了处罚决定。政务大模型决策通过大数据处理、机器学习等技术手段,对政务数据进行分析和挖掘,为政府提供智能决策支持,具有行政职权的特征。在数字时代,具有“准公权力”的属性,是数字行政行为的一种表现形式。
综上可见,公共大模型决策固然是数字时代的一种技术工具,具备良好的底层通用能力、泛化能力和迁移能力,能够解决复杂场景中的各种任务和问题。但这并不意味着它仅是价值中立的技术手段,而是完成了从技术性应用到具有“准公权力”的角色转变,成为一种新型的法律治理方式,承担着塑造社会秩序的重要功能。
(二)公共大模型决策的应用范围
国务院《“十四五”数字经济发展规划》明确指出,“十四五”时期,我国数字经济转向深化运用、规范发展、普惠共享的新阶段。随着通用大模型工具的出现,数字经济赋能各行各业,为产业数字化转型带来新的机遇。国家网信办《生成式人工智能服务管理暂行办法》明确规定,支持公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。公共领域具有服务用户多、覆盖领域广、场景多元、数据海量以及稳定性高等特点,是建构和实验人工智能通用大模型的理想场域。目前,大模型在公共领域的应用范围广泛,主要体现在以下几个方面。
1.立法领域。在立法领域适用公共大模型决策,可以辅助立法、提升立法效率。立法程序通常包括提出法律草案、审议立法议案、表决通过立法议案、公布法律四个阶段。首先,大模型通过大量的法律文献数据进行训练,理解法律专业术语、分析立法决策,帮助立法者提出具有前瞻性的法律草案;其次,大模型运用自然语言处理技术、逻辑推理算法,审查和优化立法草案;最后,大模型通过收集、分析公众对于立法议案的意见反馈,并进行模型模拟,从而为立法修正提供参考。例如獬豸(LawGPT-zh)是中文法律对话语言模型,该模型在法律领域的专业语义理解方面表现突出,能够为立法者进行立法研究和议案分析提供专业的帮助。
2.司法领域。在司法领域适用公共大模型决策,可以提高司法效率、保障司法公正和司法公信力。一方面,司法机关利用大模型的多模态文件理解能力、法律语义认知能力、自然语言交互能力,抽取案件要素、分析争议焦点、生成法律文书,从而优化审判资源配置,提高司法效率。正如苏州中院于2024年1月开发的“未来法官助手”司法人工智能辅助办案系统,一键查阅(卷宗)、一键分析(焦点)、一键生成(裁判),法官阅卷工作量减少了80%,案件办理时间缩短了三分之二,有效为法官减负、为办案增效,促进实现司法公正。另一方面,司法机关基于大模型的通用语义理解、任务型对话管理、多轮对话记忆等功能,可以实现法律适用、办案程序、审判业务的问答咨询以及进行证据链、案情的分析和司法决策的逻辑推理,从而确保司法裁判的严谨性和科学性,增强司法公信力。例如2023年8月,浙江大学联合阿里云、华院计算研发的“智海—录问”法律大模型发布,作为面向司法领域开源开放的法律大模型,具备法律问答、案情分析、推理决策等六大法律辅助服务功能。通过大模型的普法共享,增强公众对司法公正的信任感。
3.行政服务领域。在行政服务领域适用公共大模型决策,可以辅助政府办公,提升政务服务能力、优化民生服务。其一,政务部门利用大模型强大的数据分析能力、高效的语言识别能力、智能的个性化服务能力,进行信息整合和分析、提升会议记录和文件归档效率、提供智能解释与服务等。通过提高政府办事效率,进而提升公民对政府的信任。正如新加坡政府于2023年开发的聊天机器人模型(Pair系统),可以协助公务人员在几秒内整理信息、总结参考资料、改善写作表达能力等。其二,政务部门利用大模型类人化的交互能力,为“高效办成一件事”提供了技术支撑,为政务服务数字化赋能。例如2023年无锡市与百度智能云展开合作,探索人工智能(AI)政务大模型、开发政务数字人、打造12345智能问答助手等。其三,政务部门利用大模型的行业知识整合能力、自主学习与迭代能力,开展“人工智能+”行动,赋能民生服务工作。正如为了聚焦“人工智能+”国家战略,浙江省卫生健康委与支付宝联合打造了可陪诊数字人“安诊儿”,它是全国首个基于省域医疗数据的医学人工智能大模型。“安诊儿”可以提供智能导诊、指标解读、就医陪诊等多项智慧化服务。目前已经覆盖省市级医院92家,月服务量超30万人次,提升了患者的就医体验,为智慧医疗健康服务带来了全新变革。
(三)公共大模型决策的应用趋势
大模型是生成式人工智能的典型代表,它使用语言模型、图像模型和深度学习等技术,自动生成新的内容,如文本、图片、音频和视频等。因此,大模型并不同于决策式人工智能,它更多地聚焦在创作新内容上,从而实现了从感知理解世界到生成创造世界的跃迁。由于大模型在内容创作、人机交互、产品设计等领域展现出巨大潜力,非常契合公共领域的相关业务特性和需求,因此各国都加快对公共大模型决策的研发和应用,呈现出纵深应用的发展趋势。
首先,司法决策应用中的普遍化。我国关于公共大模型决策研究虽尚处于起步阶段,但发展势头迅猛。截止2024年3月,国家互联网信息办公室发布公告,已经有117家“大模型”成功备案。其中,百度、科大讯飞、阿里云、商汤科技等大模型厂商都在探索公共大模型的运用。大模型在司法领域呈现出全流程、覆盖性的应用趋势:在阅卷过程中,利用大模型的深度学习和语言理解能力,提取案件要素,生成法律文书摘要;在审理过程中,运用大模型的逻辑推理能力,分析证据和案情,进行事实和法律推理,辅助司法决策;在文书制作过程中,利用大模型的自然语言生成内容,依据庭审记录、参照预设的裁判推定,自动生成司法文书。随着大模型机器学习能力和大数据分析能力的增强,大模型在司法决策中发挥着越来越重要的作用,为提高司法效率、确保司法公正提供了有力保障。
其次,应用场景的多元化。化身为新质生产力的大模型,只有“应用”才是大模型的价值之所在。大模型的热度从企业增效蔓延至公共决策,而且应用场景更加丰富多元。目前我国的公共大模型应用场景主要包括政务办公、公文写作、政务服务、智慧司法、智慧党建、城市安全和公共安全等领域。从内部的辅助政府办公到外部的提升政务服务,再到助力城市治理和优化民生服务等多个领域;从自动化办公延伸到数字政府、数字法院、数字检察建设,从党建数据分析与决策支持到公共安全的风险评估与智能预警,公共大模型决策的应用逐渐深入,在数字一体化建设过程中发挥着重要的作用。
再次,应用目标的法治化。大模型应用的基本目标是促进数字治理和数字法治,这主要体现在以下三个方面:其一,公共大模型决策通过深度学习加速、优化、改善行政决策,“复制既有的成功做法并降低人工成本,而且可以比人类做得更好。”确保行政决策公正和透明,推动政府依法行政,促进法治政府建设。其二,公共大模型决策通过自然语言处理能力、多语言、多模态能力,进行信息公开时输出更加有利于公民理解和接受的信息,能够保障公民的知情权、参与权和监督权,从而保障公民的合法权益。其三,公共大模型决策通过类人化的对话交互能力,改变传统的问询模式,优化法律咨询服务、提供法律建议,这有助于确保公民在司法过程中受到公正、平等和合理的对待。
最后,算法科层的机制化。科层制作为传统公共行政的典型范式,“具有高度程式化、高度正式化和高度集权化的特征。”而以深度学习为代表的公共大模型决策,则作为一种算法逐渐渗透到科层体制中,重塑了传统行政决策的方式,使得街头官僚、屏幕官僚向着系统官僚演进,最终,将政府引向一个真正的后官僚主义的“信息国家”。其一,“以预测分析为主要形式的算法运用,使传统科层的程序化、标准化的服务供给模式转变为准确识别特定任务和服务需求的定制化、精准化服务供给模式。”其二,公共大模型决策加强数据共享,打破传统科层制的层级封闭结构,加强跨部门、跨层级间的信息沟通反馈。其三,公共大模型决策运用数理逻辑,关注相关关系和结果平等,“力图使结果更具实效性和精准性”。这样,就形成了数字时代的新型算法科层,并在日益普遍的应用发展中加速机制化。
二、公共大模型决策的法律效能
历史地看,任何一场科学革命都是机遇与风险并存,而当今的颠覆性的数字技术则“创造了许多,也同样毁灭了许多”。对于大模型公共决策而言,如何充分发挥其积极效能,克服其可能的风险,就成为摆在我们面前的一项重要任务。
(一)公共大模型决策的效能
公共大模型决策因其卓越的自然语言处理、计算机视觉、语音识别的能力,产生了重要的数字赋能效果。它不仅创造了自动化的公共决策机制,也优化了人类的决策认知、能力和水平,即“我们塑造了工具,而之后,这些工具又塑造了我们”。
第一,提高决策过程的高效化。相对于传统面对不同场景的众多小模型,大模型通过吸收海量知识,可以独自面对多个场景,这就化解了传统模型碎片化的局限,提高了决策效率。例如北京上线的全市首个政务大模型“亦智”平台,利用大模型的深度学习和自然语言处理能力,提供智能化咨询互动、精准化办事服务、自动化材料预审等政务服务。大模型革新了政务服务模式,驱动效能实现质的飞跃。江苏某法院研发的审判大模型,通过多模态数据解析技术的深度应用,将案件电子卷宗知识化;通过审判思维链训练,提升大模型的案情分析能力;使用案情人工智能(AI)问答,实现不同案件的全场景智能辅助。这样一个服务于审判全流程的司法大模型提高了审判决策效率、促进了司法公正,为数字法院建设带来了新契机。
第二,限制自由裁量权的滥用。大模型具有更大的语料库、更高的计算能力、更通用的预训练,因此大模型具备更高的准确性、更高的适应性、更强的自我学习能力。同时,大模型摆脱了人工标注数据集的缺陷,质量更优也更加的“客观”和“中立”,从而能够以技术形式来约束自由裁量权:其一,大模型决策的普适性、标准性有利于克服人为决策的不一致性和利益输送,有效抑制了权力寻租。正如蜜巢政务大模型,作为垂直大模型领域的领新者,构建了专属的应急基层知识库,为执法人员提供决策辅助,确保执法的合法性和公正性。其二,大模型决策系统数据自循环,限制了人情干预司法的机会。正如作为在全国3500家法院应用的法律知识大数据平台“法信”与最高人民法院为全国四级法院提供业务咨询答疑的“法答”深度融合,推出“类案检索”与“同案智推”系统,确保法律适用的一致性和公平性。保障司法程序的独立性和公正性。其三,大模型决策为法律监督赋能,突破了传统法律监督个案性的局限。督促相关部门对社会治理中的问题加以改正,限制公权力机关自由裁量权的滥用。正如无锡某检察院研发的“惠企慧控”防控平台,将涉企法律监督进行了“侦诉审”全流程衔接,将涉企法律监督工作从检察环节前移至侦查环节、后延至审判环节。检察院与公安、法院和其他行政机关通过监督结果的互认,实现了涉企法律监督刑事诉讼全覆盖。通过数字化技术的赋能,使得公共大模型对社会治理中的问题进行深层挖掘,精准改正。
第三,改变传统科层制的组织架构。在数字时代,随着大模型决策在公共领域的广泛应用,国家管理机制发生了新变革。科层制作为传统公共行政组织的管理范式,遵循着一元化管理思路。囿于“条块分割”的管理体制,部门间的协调难以顺畅展开。基于专业分工的权责划分不够清晰,导致公共服务效率低下等问题。公共大模型决策的运用,使得传统科层制向算法科层制转变。算法科层制加强了公共行政组织的内部管理,重塑了传统科层制的组织架构。“部门预测型算法科层制”,推动了上下级部门之间算法运行的协同性,同时鼓励资源分享,增加了组织灵活性。在“跨部门预测型算法科层制”中,通过数据汇聚建设跨部门跨层级平台,提供精准化、个性化服务。正如中国电信政务大模型助力“粤省心”政务服务平台,在大规模语料库的基座模型上,利用“预训练-微调”的大模型训练方式,进行跨部门的预测型算法控制。打通部门之间的数据壁垒,推动跨部门的数据整合,使得“粤省心”不仅具备当地的政务知识,还能更好地适应政务场景。
第四,促进数字法治体系建设。公共大模型决策是驱动数字法治建设的重要技术手段,其一,公共大模型通过构建自然语言处理和深度学习技术,实现更精细、更智能化的社会管理,提升公共服务的效率和质量,同时为政府决策提供更科学、全面、细致的依据。为构建高效、便捷、智慧的政务服务体系提供新的技术力量。其二,公共大模型通过文书写作、语义检索、归纳总结、关联分析等能力在类案检索、文书写作、法律调解等垂直场景进行应用,推动我国智慧法院建设进入4.0阶段。其三,“最高人民检察院在‘业务主导、数据整合、技术支撑、重在应用’工作机制的主导下,研发车险欺诈骗保、医保基金诈骗等大数据监督模型800余个,批量发现类案监督线索20万余条,法律监督质效显著提升。”公共大模型决策在推进数字法治政府建设、数字法院建设、数字检察建设等领域发挥了重要作用,为推动数字时代法治体系建设夯实基础。
三、公共大模型决策的现实困境
公共大模型决策表现出超越人脑的优势,它不仅提高决策效率,还改变决策方式,实现由单一决策到综合决策、由静态决策到动态决策、由人工干预到自主决策的突破。然而,由于公共大模型存在数据采集、预训练、精调、部署等复杂流程,其中数据来源、数据质量、算法黑箱等不可控因素也带来了法律适用的困境。
其一,公共领域中适用大模型决策的边界难题。国家权力与数据权力的结合催生了“数治”,从国家视角看,“数治”提升了国家管理和治理能力,但从个人和社会角度看,“数治”带来了过度侵入私人空间的威胁及其心理效应。目前,大模型决策作为“数治”的重要治理方式,被嵌入到公权力运行的各个环节之中。公共大模型通过自主学习生成决策规则,甚至替代公权力,作出具有法律效力的算法决策。但这种决策并不是万能的,它应该有其合法合理的边界。一是适用领域边界。虽然大模型决策在多个公共领域被广泛深入运用,但在涉及人身、生命权益等领域,其使用应该受到严格限制。这既是为了保护个人权益,也是为了遵守伦理规范。二是决策方式边界。大模型决策在某些公共领域可以实现一定程度的自动化决策,然而这种决策方式代表着新型的“数字公权力”,在某些方面承担着社会管理的职能。因此在人机融合的决策方式下,仍然需要人类进行监督和干预以确保公共大模型决策的合法性和安全性。三是算法不能边界。公共大模型决策通过精准预测,可以提升公共服务个性化水平。但是算法有着自身的局限性,正如在婚姻、感情等私人领域往往存在着数据收集和获取上的诸多困难,导致数据数量不足、数据质量参差不齐等,从而影响大模型算法的应用。再者在婚姻关系中,夫妻感情是否破裂以及夫妻间的真实意思表示往往涉及深层次的情感、道德和价值观的判断。这些因素难以量化,超出了大模型算法的处理能力。因此,应明确算法在公共大模型决策应用中的局限性,避免将其应用到无法胜任的情感、道德伦理判断等复杂场景之中。
其二,公共大模型决策对正当程序原则的挑战。在人工智能时代,公共大模型决策借助深度学习等技术,以辅助行政裁量、预测调配资源的方式,冲击了以保障公民权利为核心的行政正当程序。一方面,公共大模型在通用智能底座的基础之上,通过深度学习达到具有预测、决策、探索等认知智能。依靠这些能力,公共大模型可以在不需要人类介入的情况下进行自动决策,例如金融机构利用大模型对小微企业进行“信用评价”;公安机关利用大模型进行“犯罪预测”等。然而,大模型决策将复杂的程序规则、行政决策机制等全部转化压缩成代码,并通过算法瞬间完成,简化了现代法治设定的行政正当程序。并且公共大模型的设计,并不能排除设计者带有的算法价值偏好,政府的考量行为机制也被压缩成算法,这使得外界难以对算法进行有效的监督和审查,进而可能存在逃脱原来正当程序对公权力限制的风险。另一方面,公共大模型拥有复杂的结构和巨大的参数量,同时也是一个复杂的黑箱。其可解释性差,存在输出不可控等问题。公共大模型在算法的运作过程中,直接产生决策结果。但是,在作出影响个人权利和利益的决定之前,并未进行告知;在整个决策过程中也并没有听取相对人的陈述和申辩,侵害了相对人的合法权益。从而将一个可以面对面对话沟通的行政决策机制转化成一个屏对屏的单向行政指令。
其三,公共大模型决策中价值对齐的难题。公共大模型决策优化了公共服务,但也带来了偏见、歧视以及政治敏感等风险问题。这主要是源于大模型需要海量的数据进行“投喂”,而这些数据的品质无法保障,会存在各种错误、仇恨、排斥等。例如微软的聊天机器人(Tay)在上线一天后,就从一个无辜的“小女孩”被调教成支持种族歧视的恶魔“少女”。同时,由于大模型具有涌现性的特征,容易让大模型产生“幻觉”。正如2023年12月,纽约时报起诉微软、开放人工智能(OpenAI)案件中,称必应聊天(Bing
Chat)因人工智能(AI)“幻觉”捏造不实信息对媒体的声誉造成潜在影响。
“机器学习表面上是技术问题,但越来越多地涉及人类问题。人类、社会和公众难题正在变得技术化。技术难题正在变得人性化、社会化和公众化。”价值对齐的难题主要体现在以下几个方面:一是如何将人类的“价值”通过技术环节变成机器可以理解的准则。正如为了让机器正确地理解何为“歧视”,需要将复杂的“歧视”概念进行层层分解,拆解成机器可以理解、判断的细颗粒度指标。首先,需要设立一级指标就“歧视”的基本类型进行划分;其次,设立二级指标就“歧视”的具体维度进行规定;最后,设立三级指标进行进一步的细化。在这之后,设计者将故意生成包含潜在“歧视”的数据样本,通过对抗性测试以检验大模型的鲁棒性。在这样一个复杂的训练过程中,每个阶段都要用不同的数据集来训练,如果没有足够海量且多元化的数据,将可能导致机器对于人类“价值”的理解偏差。二是如何将抽象的人类“价值”进行对齐。由于人们掌握知识的不同导致认知局限、具备的身份不同导致文化冲突,秉持的价值观不同导致意识形态差异。这些不同导致人们对于“价值”的理解并不一致,而将抽象的“价值”进行对齐并转变为机器可以执行的准则,是价值对齐不得不面对的难题。三是如何应对“价值对齐”的负向教导问题。在教育、引导大模型的过程中,负向教导会传递与人类“价值”相悖的信息,基于此作出的大模型决策将侵害人们的合法权利。正如欺诈式人工智能语言模型(FraudGPT)仅根据简单提示即可创建破解工具、钓鱼邮件,甚至编写恶意工具代码。防止大模型决策被负向教导也是价值对齐需要应对的困境。综上,我们需要让大模型决策学会人类的“价值观”,让大模型决策符合人类价值观,符合人类伦理基本准则。只有具备“价值对齐”的公共大模型才能真正服务于社会。
其四,算法科层制对行政合法性、合理性的侵蚀。随着公共大模型的广泛应用,一个新的算法科层制正在形成。算法科层制指在传统科层制组织结构中,通过应用算法来优化组织运行的一种新型组织形态。其通过打破部门之间的壁垒优化传统科层制的组织结构,运用精准的预测和分析提升公共服务效率、基于数据和规则的自动化决策规范自由裁量权,但也带来了一系列的合法性问题。一是算法偏见的机制化。生成式人工智能具有架构复杂、参数海量的特点,普通终端用户难以全面理解其运行逻辑。而且,以生成式人工智能为技术底座的公共大模型,相较于传统模型更难给出清晰、合理的算法解释。因此,算法科层制具有封闭性、隐蔽性、自动性的运行特点,一旦带入了人的偏见,它就更难被发觉,所以形成了无感化歧视并呈现出系统性、机制性的侵权。二是救济途径的失灵化。算法科层制改善了组织内部管理,避免了传统科层制中的腐败问题。但是公共大模型决策缺乏专门的监督机构,无法保证其决策过程的合法性和合理性。而且,公共大模型决策具有自己的运行逻辑,其封闭性阻碍了普通公众对决策过程的理解和监督。因此,公民在面临大模型“专断”决策时常面临举证不能和缺乏救济途径的困境。三是公民参与的边缘化。公共大模型提高了公共管理效率,但是生成式人工智能基于概率预测进行涌现创造,具有情境觉知能力和自主注意力机制。公共大模型进行自主决策,压缩了决策过程,直接产生结果。公民无法获得决策过程中的全面信息,导致公民缺乏参与决策的依据。同时,公共大模型决策机制存在决策透明度不够、公民参与度不高、反馈机制不健全等问题,导致公民缺乏参与热情和参与渠道。
四、公共大模型决策的法治化规制框架
任何新型技术都是双刃剑,它根本上无疑是促进人类进步的,但它的风险是不容小觑的。2023年3月30日,埃隆·马斯克和人工智能(AI)专家呼吁暂停开发比四代人工智能语言模型(GPT-4)更强大的人工智能(AI)系统6个月。2023年4月3日,意大利提出禁用聊天机器人模型(ChatGPT)。2023年5月19日,苹果也提出禁止员工使用聊天机器人模型(ChatGPT)。2023年7月14日,美国联邦贸易委员会就聊天机器人模型(ChatGPT)是否因发布虚假信息对相关人造成伤害进行调查。公共大模型应用利弊兼具、优劣共存,如何发挥它的优势克服它的不足,成为一个非常重要的时代问题。由此可见,为了防范公共大模型决策的风险、发挥其应有的效能,推动数字法治政府建设,将公共大模型决策进行法治化规制就显得尤为关键。
(一)确立公共大模型决策的法律保留
法律保留是行政法的重要原则,它起源于19世纪的“干涉行政”。“其最初意义是指行政机关如果要对私人的财产和自由进行干预,必须得到议会所制定的法律的明确授权,否则就构成违法。”这对现代法治的权力约束发挥了重要作用。进入数字时代后,大模型决策出现后,演变成了新的数字权力。法律保留原则由规则领域拓展到了技术领域,此时法律保留原则就需要进行新的激活和延展适用。“进而确立适用公共大模型决策时‘原则禁止,例外允许’的关系模式,并科以立法者在政府效能与权利保护之间的具体权衡义务。”
1.基本权利的法律保留
公共大模型决策不仅会越来越多地参与人类决策过程,还能够在一定程度上组织社会生活和参与社会治理。从而对一定范围、一定层次的人、财、物及其关系进行处置和调配,重构了原有的生活秩序逻辑预设。它优化了社会治理效能,但也出现负面的问题,特别是可能对公民的权利带来消极影响。正如在社会保障领域,若大模型训练数据样本过度聚焦于高收入人群,而未能充分反映中低收入人群的特征,那么基于此模型作出的决策将可能嵌入社会偏见,影响相关机关对福利资格的认定,减损公民的社会福利权益。在司法决策辅助领域,若大模型训练数据样本中隐含了种族或性别偏见的因素,那么基于此模型作出的决策将可能导致量刑建议不公正,加深已经原有存在的歧视问题,影响公正审判的结果。原本由公务人员进行的公共决策,现在由公共大模型代为决策,产生的侵权问题是机制化的、规模化的以及系统化的。保障一个数字公民在数字时代所应该享有的,得以维护其生存、从事数字社会生活所不可或缺的最基本权利,应当适用法律保留原则,在基本权利领域做到“无法律不行政”“先法律后行政”。
2.高风险级别的法律保留
数字时代的法律保留原则已经不再局限于法律本身,它亟需辐射、拓展到技术领域。换句话说,大模型公共决策很可能会产生没有法律规定、或者未经授权而侵蚀公民基本权利的后果,而且比传统行政行为更为隐蔽、更加自动化、更加体系化。因此,就亟需根据不同级别的风险来框定这些大模型决策的范围。正如“2019年加拿大颁布的《自动化决策指令》,将自动化决策分为四个等级:一级自动化决策会造成可逆且暂时的影响;二级自动化决策会产生可逆的短期影响;三级自动化决策会产生难以逆转的持续性影响;四级自动化决策会产生不可逆的永久性影响。”2024年3月13日,欧洲议会通过了欧盟《人工智能法案》。该法案将人工智能系统的风险分为不可接受风险、高风险、有限风险以及最低风险四类。产生不可接受风险的将被禁止;具有高风险的将要遵守严格的合规义务;具有有限风险的将要对用户履行充分的告知义务;仅有最低风险的可以自由使用。根据大模型决策引发的不同等级风险进行分级监管,对于自动化决策会产生不可逆的永久性影响以及会造成更高风险情形的自动化决策,就需要适用更严格的法律保留原则。由于具有高级别风险的大模型可能会产生限制公民基本权利的后果,因此对这些大模型而言,只有在法律有明确规定的情况下才能让运用它们进行算法决策。
3.预测型算法的法律保留
目前公共大模型决策的适用场景主要包括数字政务、数字法院、数字检察等,在这些适用场景中,算法决策大致可以划分为算法审批、算法辅助和算法预测等类型。算法审批,例如“秒批”系统打破了数据孤岛,基于大数据的机器学习能力进行自动审核、自动比对,从而优化审批流程、提高审批速度。算法辅助,例如法院利用审判大模型“一键生成法律文书”,大模型决策作为辅助工具提高了裁判文书的成文速度。算法预测改变了传统认知范式,根据过去的历史数据推断出未来的趋势,可以用来预测风险,先发制人的对资源进行事先调配,进行事先引导和部署。例如浙江某检察院以“网约房”业态治理监督模型为切入点,对未成年人异常入住进行“预防性”监督;上海某法院在推动优化营商环境方面,通过对涉诉企业的数据进行融合分析,生成各类风险防范报告。这些预测型算法主要是基于之前掌握的数据进行预测分析,并作出影响个体权益的决策。这样的预测型算法应该嵌入法律保留原则的结构性要素,以保护公民权利不受侵蚀和剥夺。
(二)构建公共大模型决策的正当程序
正当程序原则起源于英国的“自然正义”,是防止公权力滥用、保障私权利的重要原则。在中国行政法的理论与实践中,正当程序的基本含义是:“行政机关实施行政行为,可能影响公民、法人或其他组织合法权益的,应当在作出行政行为之前向当事人和利害关系人告知事实并说明理由,听取公民、法人或其他组织的意见。行政机关应当告知公民、法人和其他组织享有陈述意见的权利,并为公民、法人和其他组织提供陈述事实、表达意见的机会。”由于公共大模型的决策结果是瞬间完成的,决策过程被杂糅进无人参与的大模型算法之中。于是,在对行政程序进行简化的同时也限制了正当程序中的告知、说理、听证、陈述、申辩等程序的实现。这表明,公共大模型决策不仅侵蚀了传统程序正义推崇的程序性权利,而且危及参与、中立、透明、公正等程序正义的基本要素。因此,构建公共大模型决策的正当程序是保障公民基本权利,追求数字正当程序的必然选择。
其一,事前进行算法公开,履行告知。《个人信息保护法》第24条规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”公共大模型决策在很多时候对个人产生了实质性影响,例如刑事司法决策会对人的生命、自由等基本权利产生影响;行政决策会对人的财产权益等造成影响。但是公共大模型决策的过程并不公开,相对人无从知晓作出决策的原因,更无法拒绝决策的结果。为了保障公民在数字时代的程序性基本权利,公共管理机关在进行大模型决策之前就应进行算法公开。首先是公开大模型决策的适用场景。并不是所有的公共领域都可以适用大模型决策,应该让公众知晓算法在哪些活动中进行了自动化决策。其次是公开大模型决策的运行规则、决策体系、逻辑结构、设计参数等,确保公众了解大模型决策的具体运行过程。再次是公开大模型决策的设计缺陷、歧视风险、潜在危害等,保障公众明确大模型决策可能带来的权益侵害。
其二,事中进行算法解释,听取申辩。《互联网信息服务算法推荐管理规定》第12条规定:“鼓励算法推荐服务提供者优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响,预防和减少争议纠纷。”大模型以数以千亿的参数规模、数据模态格式多样、计算复杂度呈指数增加,这意味着相较于传统模型,大模型的可解释性更差。“算法解释与知情权、平等权、申诉权、隐私权、个人信息法益乃至人格尊严等多种法益的保障密切相关,隐含着新型的规范诉求和法律关系。”为了维护正当程序原则,一方面应赋予个人算法解释权,即个人不仅可以要求进行体系化、系统性的解释,如系统的需求规范、决策树、预定义模型、标准和分类结构等。还可以要求进行具体的、个案的解释,如特征权重、有关引用等个别情况;另一方面保障个人陈述申辩的权利,即大模型为了提高效率,会在一些场景中进行完全自动化决策。但当决策影响公民权益时,“应保障公民不受完全自动化决策支配的权利,确保公民获得人工干预算法自动化决策的权利。”
其三,事后进行算法审查,提供救济。《生成式人工智能服务管理暂行办法》第十五条规定:“提供者应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。”由于生成式人工智能需要依据海量的训练数据以及强大的算力支持。当训练数据不准确或算法存在漏洞时,生成式人工智能就会出现“幻觉”。例如2023年4月,聊天机器人模型(ChatGPT)捏造了一名法学教授在一次班级旅行中发表了性暗示言论,且试图骚扰一名学生,并援引《华盛顿邮报》的一篇文章作为信息来源。但事实是这位教授并没有参加班级旅行,也不存在这样的文章。大模型相较于传统模型,更易出现算法风险。因此,在运用大模型进行公共决策时,公共管理机关不能利用“技术中立原则”推诿责任。在出现算法风险后,应该进行算法审查,畅通公民的救济途径。首先,明确审查主体应包括监督机关和公共管理机关,两者共同发起责任审查,不仅有利于公共管理机关进行自我管理还能确保审查的公正性。其次,审查的内容包括算法目标、变量参数与管理目的之间的关联性;算法模型运作和产生结果之间的合理性、必要性。再次,确保大模型决策的程序正当,符合行政公开原则、公众参与等原则,保障公共决策的透明度和公正性,从而增强公民对政府的信任。
(三)设置价值对齐的基本原则和技术体系
价值对齐强调“大模型系统的目标和人类价值观一致,使其符合设计者的利益和预期,不会产生意外的有害后果。”价值对齐贯穿于大模型系统的全生命周期之中,如何让大模型系统与人类伦理相一致是一个具有挑战性的难题。从伦理价值本身出发,由于人们的认知不统一,具有主观性和模糊性且人们的价值观是多元的,难以产生共识;从技术角度出发,由于训练数据的品质良莠不齐,且批注者的标注能力各异,导致人机理解不一致。如果大模型对齐失败,人工智能系统将可能采取与预定价值不同的有害行为,从而导致不良后果。正如2023年5月,由350多名人工智能领域的高管、研究人员、工程师签署的人工智能(AI)公开信中表示:“人工智能对人类的风险,与大规模流行性疾病和核战争相当。”因此,为了使大模型系统与人类的意图和价值观相一致,设置价值对齐的基本原则和知识体系便成为不可或缺的关键环节。
一方面,构建价值对齐的法治伦理。2021年9月25日,人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将伦理融入人工智能全生命周期,促进人工智能健康发展。2023年7月10日,由国家网信办等七部门联合发布了《生成式人工智能服务管理暂行办法》,指出生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。为了约束大模型决策对人类造成的风险,应将“法治伦理”融入价值对齐的场景之中。首先,秉持“科技向善”的价值理念。这就要求大模型应以正向价值观以及高质量的合规内容,推动人工智能价值对齐在具体场景中的运用。其次,坚持“公平平等”的法治原则。避免大模型在收集数据、设计算法时,产生针对不同国别、民族、信仰、性别、身份等偏见和歧视,尊重不同的文化传统和数字主权。再次,探索“伦理先行”的法治机制,即在对大模型进行监督时,应确保大模型的真实性、准确性和客观性,完善人工智能伦理标准、形成人工智能伦理指南,建立友好大模型。
另一方面,设置价值对齐的技术体系。大模型在一定程度上会展现出“类人”和“超人”的能力,使得创新和自动化焕发了新的生机,也成为了社会治理的技术底座。然而,大模型对于人类伦理的理解程度,以及它对公众舆论带来的操纵性影响,难免使得人们对其决策过程产生了信任危机。价值对齐成为大模型治理中的重要议题,而运用技术对抗技术已成为确保价值对齐的一种关键手段。大模型价值对齐包括前向对齐和后向对齐两个组成部分,前向对齐主要包括从反馈学习和在分布偏移下学习,旨在对大模型系统进行初步的对齐要求训练;后向对齐主要包括对齐保证和人工智能治理,旨在确保大模型训练系统的实际对齐。后向对齐不仅在训练之后使用,而是贯穿于大模型训练的全过程之中。前向对齐和后向对齐构成一个对齐循环,重复于新一轮的对齐训练中,从而产生越来越精准的价值对齐系统。这样,就需要建立并完善价值对齐的前向对齐和后向对齐的技术体系,并对大模型进行评估和优化,从而实现价值对齐鲁棒性、可解释性、可控性、道德性的目标。
(四)探索算法科层制的监督机制
随着数字政府形态的全球性发展,人工智能日渐深入地嵌入和重塑着既有的行政体制和机制,一个新型的算法科层制开始出现。它是经由算法应用而带来的科层制的数字化、智能化、平台化,“并发展出四种算法科层制形态:部门自动化算法科层、部门预测型算法科层、跨部门自动化算法科层和跨部门预测型算法科层。”而这种算法科层一旦融入大模型决策,就会逐步超越其代码特质,进而整合并再生为新型“社会权力”,成为社会管理中的决策者。无疑,这种算法科层制改善了传统科层制“管理结构僵化、管理链条冗长、管理等级森严、信息传输不畅等难题,有助于精准回应社会需求、高效提供公共服务。”但同时,算法科层制也带来了算法偏见的机制化、救济途径的失灵化以及公民参与的边缘化等新问题。可见,算法科层制的治理已经超出传统治理范围,为了增强算法科层制在数字时代的合理合法的施政能力,亟需建立健全有效的监督机制,可以从以下三个方面展开。
一是建立算法风险评估机制。算法科层中的大模型决策系统与公共利益息息相关,一旦出现决策错误时,就会产生侵权机制化的社会风险。同时,公共大模型架构复杂,加剧了算法“黑箱”的幽暗程度。一旦出现算法偏见时,就会出现难以追责的困境。因此,亟需建立算法风险评估机制。“算法风险评估制度是指依据系统制定的衡量标准对自动化决策系统的应用流程、数据使用和系统设计等内容进行系统评判,以明确自动化决策系统的影响水平和风险等级的一种算法治理实践。”可以借鉴纽约市的《算法问责法》、加拿大的《自动化决策指令》以及欧盟的《人工智能白皮书》中算法影响评估制度的设计,对大模型决策进行全流程的动态评估,预先发现问题,在过程中及时整改,并在决策后积极修正,在实体和程序层面确保决策的正确性。
二是构建算法审计多元监督体系。虽然公共大模型作出决策时可以限制自由裁量权,能够抑制权力寻租等问题。但对于这个决策结果却没有监督机构,公民即使在被“专断”决策后也无法寻求救济。因此,为了保障救济途径,就需构建算法审计多元监督体系。“算法审计将技术、法律和伦理深度融合,以合理透明度和专业技术来弥合算法黑箱和商业秘密间的制度张力,为构建事前预警识别机制、事中风险管控机制和事后责任追溯机制提供了有效决策参考。”我国《互联网信息服务算法推荐管理规定》第19条规定:“网信部门会同电信、公安、市场监管等有关部门建立算法分级分类安全管理制度。”而且《网络安全法》《数据安全法》《个人信息保护法》等也在不同程度上体现了分级分类治理的原则,为算法的多元共治提供了法律基础。因此,对大模型决策系统,在监管主体上应推动公共机关与第三方监管主体共同监督;在监管工具上应融合法律、技术和伦理而实施多元共治;在监督方式上应促进硬法与软法的协同共治。
三是提高算法治理的民主参与能力。公共大模型决策系统固然提高了公共决策效率,升级了公共服务水平。然而,其中的算法科层制却在提供公共服务和管理社会事务方面降低了与公众和社会力量的互动,排斥必要的公民参与和公共协商空间,从而产生算法科层挤压社会自治的问题。因此,需要提高民众在算法治理中的民主参与能力。一方面,要提升公民数字素养。2021年11月,中央网信办发布了《提升全民数字素养与技能行动纲要》,明确提出要注重培养具有数字意识、计算思维、终身学习能力和社会责任感的数字公民。因此,面对公共大模型的科层制算法决策,就需要采取培训、模拟、训练、合作等方式,“让人们形成良好的数字素养和数字能力,更好地认识算法、体验算法,并运用数字能力来监督算法,从而维护自身的合法权益。”另一方面,应畅通公共大模型算法决策的公民监督渠道。2021年12月,国家网信办发布的《互联网信息服务算法推荐管理规定》要求,算法推荐服务提供者应畅通算法监督方式。因此,面对公共大模型所具有的强大泛化能力和预测分析能力,应更加注重公民的民主参与过程。正如无锡某检察院开发的“公益诉讼随手拍”系统,畅通了公民参与检察院公益诉讼线索举报的途径,维护了公民在数字时代的民主权利。
结 语
在当今数字时代,大模型决策已经深入生活的方方面面,公共大模型决策已成大势所趋。然而,它也带来了亟需关注的新型治理逻辑和法学命题。其一,与以往的行政决策不同,公共大模型以平台、数据和算法为载体,实现自动化决策和智能化预测,突破物理时空的限制,超越人的自然属性,穿透部门行业的阻隔。基于此,它可以对公民及其他社会主体的过去、现在和未来进行大数据分析,从而进行“穿透式”监管和治理。其二,与商用大模型不同,公共大模型本质上属于公权力通过大模型决策来施政的“数字权力”。因此,公共大模型决策合法规制的缺失,就难以抑制数字权力的扩张。其三,与传统的权力形态不同,公共大模型是一种技术性权力,既是权力的技术化,也是技术的权力化。更重要的是,在当今数字时代,“信息处理支配着社会,渗透进每个生活领域”,这就意味着,公共大模型实现了数字世界中的权力设置和再分配。这样,我们就需要基于大模型的运行逻辑和数字时代的发展规律,积极探索科技向善技术理念、价值对齐基本原则、多元共治基本格局、算法决策正当程序等,从而为我国数字法治建设提供时代动力和坚实基础。
(原文刊载于《国家检察官学院学报》2025年第1期)
《数字法治》专题由上海市法学会数字法学研究会特约供稿,专题统筹:秦前松。