中国实践
东方法学特稿|张欣:论人工智能体的模块化治理
2024-05-21 18:52  点击:19229

作者:张欣,对外经济贸易大学法学院副教授,数字经济与法律创新研究中心主任、法学博士。

一、引言:迈向虚实结合的智能体社会

生成式人工智能的出现掀起了数字时代的智能革命。在大型自然语言模型(以下简称大模型)的下半场,正迎来一场以人工智能体(AIAgent)为关键代表的激烈角逐。大模型多模态的跃迁为人工智能体获得感知能力和行动能力奠定了基础,推动其实现从处理大规模文本数据到实现多模态感知甚至是社会交互能力的进化。人工智能体也因此快速走出实验室和科幻电影,成为人工智能企业竞相角逐的新赛道。比尔·盖茨指出,人工智能体不仅会改变人类与计算机交互的方式,还会彻底颠覆软件与硬件行业,引发计算领域最大的革命。人工智能专家安德烈·卡帕斯亦指出,人工智能体是“通向通用人工智能最重要的前沿研究方向”。可以说,人工智能体的到来开启了人类走向通用人工智能的“寒武纪时代”。虽然人工智能体研发进展不断,产品落地加速,但大规模商业化落地仍在初步探索和孵化阶段。AutoGPT、Generative Agent、metaGPT、CAMEL、BabyAGI、GPT-Engineer等耳熟能详的人工智能原生化应用正在以前所未有的速度蓬勃发展,深刻展示了这一领域的巨大潜力。人工智能体的技术进步不仅为人机交互开辟了新的路径,打破了人类对人工智能仅限于“连接—控制”的既定观念,更通过其日渐显著的具身性和社会性,将人工智能从单纯的“工具”转变为人类的“伙伴”。人类社会也因此以史无前例的速度迈向一个虚实融合、人机深度互动的“智能体社会”。虚拟世界与物理社会的深度链接将对人类社会的组织结构和治理方式带来全面挑战。伴随着人工智能体的快速落地与日渐广泛的应用实践,系统识别其核心法律风险,前瞻性地探索并构建与之契合的治理范式具有至关重要的理论与实践意义。从技术架构的视角出发,本文深度剖析人工智能体技术和应用可能引发的法律风险与治理隐忧,并结合人工智能体“代理即服务”的产业链特性,提出面向智能体社会的“模块化”治理范式,以期为智能体社会的治理变革提供新的思路和方案。

二、人工智能体的技术机理与法律风险

正如“人工智能”概念的提出自其产生之日起就含糊不清、颇有争议,对人工智能体的清晰界定也尚未在技术界和产业界达成一致。Agent概念最早由“人工智能之父”马文·明斯基在《思维的社会》中提出。他认为社会中的某些个体经过协商之后可求得问题的解,这些个体就是Agent。Agent应具有社会交互性和智能性。Agent的概念由此被引入人工智能和计算机领域,并逐渐成为研究热点。在AutoGPT引发广泛关注之前,人工智能体经历了符号智能体、反应型智能体、基于强化学习的智能体、转移学习和元学习的应用以及基于大模型的智能体五个阶段。大模型的出现推动了人工智能体向多模态感知和工具利用方面扩展。这些智能体能够通过预训练和少量样本的泛化,在不更新参数的情况下实现任务之间的无缝转移,并直接应用于软件开发、科学研究等多种真实场景。因此,现阶段,越来越多的研究者从大模型作为基座模型的视角对人工智能体进行全新定义。例如,OpenAI的研究者认为,人工智能体是由大模型为核心控制器,具备记忆、规划技巧以及工具使用所构成的代理系统。复旦研究团队认为,人工智能体是感知环境、作出决策和采取行动的人造智能实体。经过对主流定义的对比与归纳,本文中所述的人工智能体是指能够感知环境、进行决策和执行动作的智能实体。与传统人工智能不同,其具备自主性、可学习迭代,能够通过自主规划独立完成各类复杂任务并适应环境变化。换句话说,人工智能体并非ChatGPT的升级版,其是通过实现从感知到动作的映射,在“知行合一”的多轮反馈中不断进化与迭代,通过充分释放大模型潜能,逐步具备与人类比肩的完成通用或者特定任务能力的智能实体。因此,人工智能体的设计逻辑恰好与生物进化中“适者生存”的规律相类似,即人工智能体需要通过控制端获得认知能力,通过感知端从周围环境获取和利用信息,通过行动端获得具身能力(embodied),从而借助各类工具适应环境变化、完成任务。基于这一通用架构,本文从控制端、感知端和行动端分层探析其潜在的法律风险与治理挑战。

(一)控制端的法律风险与治理挑战

与人类相似,人工智能体首先需要“大脑”来完成信息处理、决策、推理和规划功能,同时还需要存储关键记忆、接收新的信息并学习新的知识。基于这一目的,大模型是现阶段最适合充当智能体“智商引擎”的核心组件。一方面,大模型通过思维链等技术获得推理和规划的能力;另一方面,大模型通过从反馈中学习并执行新的操作获得与环境交互甚至塑造环境的能力。这一技术路径虽然日益展现出令人赞叹的强交互、强理解、强生成能力,但其可能从下列三个方面衍生法律风险,带来治理挑战:

第一,大模型存在机器幻觉,其生成的内容在时效性、可靠性方面难以保障,一旦作为控制端的核心组件被部署于现实场景之中,可能引发一系列内容安全风险。诸多研究表明,无论是大型自然语言模型还是大型视觉模型,均存在机器幻觉问题。所谓机器幻觉,是指模型生成的内容不遵循信息源或者与现实世界的事实不符。例如,在摘要生成任务中,大模型生成的摘要在文本中未找到事实上正确的信息;在对话生成任务中,对话产生的输出与对话历史或外部事实相矛盾;在机器翻译任务中,大模型产生完全脱离原始材料的错误翻译。虽然大模型的性能上限被不断快速刷新,但机器幻觉问题却一直广泛存在,并且已经成为自然语言生成面临的核心技术挑战之一。一方面,大模型幻觉产生的原因十分复杂,在数据层、模型层和应用层均可能出现诱因,现阶段的监管方案尚难以有效应对该挑战。例如,我国《生成式人工智能服务管理暂行办法》第7条规定,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。但在实践中,即使开发者使用符合最高监管水位的训练数据集,仍然无法避免数据层诱发的幻觉问题。以RotoWire数据集为例,该数据集是开发者广泛使用的一类合法训练数据,但基于该数据集的摘要生成任务中,仍然有大约40%的内容无法直接映射到任何输入的记录之中,从而导致模型在学习时产生幻觉。另一方面,大模型幻觉的缓解技术虽然丰富多样,但迄今仍然未能从根本上解决该技术局限。例如,有研究表明目前最先进的模型生成的摘要中约有30%存在偏离事实的幻觉问题,严重影响了模型的可靠性和可用性。由于机器幻觉问题广泛存在于几乎所有的自然语言生成任务中,现阶段基于大模型的人工智能体研发技术路线亦会承继并加剧大模型幻觉问题衍生的所有内容安全风险。

第二,大模型的算法偏见问题将加剧人工智能体偏见决策的风险和治理复杂度。人工智能体在任何给定时刻的决策选择取决于其内置的知识和迄今为止观察到的整个感知序列。大模型作为对通用世界知识的映射构成了人工智能体控制系统中的记忆模块。该模块记录智能体之前的观察、思考和行为序列,使得智能体能够有效地进行反思,并利用之前的策略。这一过程使智能体能够借鉴过往经验,以适应未知的环境。但这一技术机理可能致使历史信息对智能体的未来决策产生偏见影响,从而形成歧视锁定效应,极大地增加了人工智能公平治理的挑战与难度。首先,当大模型成为人工智能体的核心组件时,其会延续并放大模型内嵌的算法偏见风险。有研究显示,几乎所有大模型都存在算法偏见。例如,当谈到职业性别偏见时,ChatGPT-4(19.2%)是最有偏见的大模型。GPT-4不仅吸收了现实世界的偏见,而且加剧了这种偏见。例如,现实世界中的保姆群体有5%是男性,但在GPT-4中该比例仅为1%。现实世界的女性软件工程师比例为22%,但GPT-4中女性工程师比例仅为1%。尽管医生群体中有40%为女性,但GPT-4认为其仅为4%,这意味着模型中的样本代表性与现实世界相差10倍之多。因此,嵌入大模型的人工智能体亦会根据种族、民族和性别认同产生刻板印象,传播甚至放大有害的社会偏见。其次,人工智能体的角色配置过程可能引发特定的新型偏见。在部署环节,人工智能体通常需要通过承担特定角色来执行任务,如编程人员、教师或者领域专家等。开发者需要预先定义人工智能体的角色及相应职责,手动为每个智能体分配不同的配置文件以促进协作。例如,定制化、平台化的人工智能体应用代表MindOS为了确保用户在短时间内开发出具有独特记忆、个性化和专业知识的定制化助手,在设计阶段就内嵌了超过1000个带有性格、功能的预置角色方案。但相关研究表明,开发者通过手动制作年龄、性别、个人特征和偏好等细节为人工智能体分配人物角色时可能会无意中将现实社会的刻板印象和个人偏好注入人工智能体的行为和交互方式之中,衍生新型偏见。与传统的算法歧视不同,人工智能体的偏见治理难度显著攀升。传统算法偏见通常聚焦于特定任务与特定场景,同时表现为结果的不公平性。例如,在招聘、信贷审批或者面部识别场景中对特定群体形成不利判定。但人工智能体的偏见是内嵌于交互方式和决策逻辑之中的,因此具有个性化、动态性和场景性。这种在角色设定、人格构建以及交互设计方面展现出的偏见可能因具体情境以及交互对象的不同而有所差异,因而需要治理策略更具实时性和灵活性,治理框架更为系统、全面和细致。最后,人工智能体的记忆功能使得偏见矫正的过程更为复杂。作为智商引擎,大模型已经具有独立的记忆功能。人工智能体的运行亦需要使用记忆模块存储过往的观察、思考和行动序列以借鉴过去的经验适应新的任务需求。这意味着人工智能体可能学习并记忆了偏见信息,致使偏见具有持久性。即使原始偏见源被矫正,记忆功能也可能导致反馈循环,致使智能体形成自我增强偏见机制并不断在未来的决策中重复。与此同时,由于人工智能体的记忆功能包含复杂的数据关联和模式识别能力,这使得偏见可能以难以预测的方式在模型的知识结构中扎根。这些复杂的关联致使看似无关的输入也可能触发偏见。因此,为了矫正智能体记忆中的偏见,可能需要对模型进行重大更新甚至重新训练,这将极大增加治理复杂性和治理难度。

(二)感知端的法律风险与治理挑战

在控制端之外,人工智能体还需要感知端感知和处理来自外部环境的多模态信息。感知端恰如人类的眼睛和耳朵,可以将人类的指令和外部环境的变化转换为大模型可理解的表示,辅助控制端进行推理、规划和决策,最后传递至行动端作出响应。因此,为充分理解具体情境下的显性信息和隐性信息,准确感知人类的意图,感知端需要将人工智能的感知空间从纯文本领域拓展到包括文本、视觉和听觉模式的多模态领域,使其能够更有效地从周围环境中获取与利用信息。在这一技术机理之下,感知端的法律风险和治理挑战集中体现为以下两点:

第一,智能体的多模态感知范式加剧个人隐私侵权风险,对现有的个人信息保护制度带来系列挑战。为更好地模仿人类处理多种类型信息的能力,主流的人工智能体原生应用均采用多模态感知范式。文本、图像、声音、视频等多来源数据可以相互补充,提供更为全面的信息,从而促使人工智能体更好地实现信息交互,增强理解和决策能力,实现更为自然的人机交互效果,并提升在自动驾驶、医疗诊断等复杂任务上的决策和判断能力。但多模态感知范式在提升智能体模型深度数据挖掘能力和决策能力的同时也将直接导致个人隐私泄露风险呈指数级增加。首先,人工智能体的感知端在融合和分析不同渠道和类型的多源数据时可能引发一系列隐私泄露和数据滥用的风险。由于人工智能体需要集成和分析来自不同渠道的数据来提升其决策和交互能力,这意味着其可能需要访问和处理包含用户个人信息的数据。在收集、存储以及多智能体交互的过程中,当未经用户同意的数据被额外收集或者未经授权共享给第三方时,可能导致隐私泄露和数据滥用问题。尤其在多模态范式下,人工智能体可能使用人脸信息、指纹、声纹等具有高度个性化和永久性的生物特征数据。一旦该类数据被泄露或者不当使用,可能导致长期甚至永久性的隐私风险。其次,人工智能体的数据存储能力和推理能力可能导致对个人隐私的间接侵犯,在逃脱出现行个人信息保护框架的同时衍生一系列安全风险。如前所述,人工智能体依据大模型开展推理、规划和决策。该类模型即使在数据收集环节对个人信息完成了匿名化处理,其仍然可在与用户对话的过程中通过对抗性推理完成对用户敏感属性的挖掘,从而构成隐私威胁。大模型对非结构化文本中线索的提取与推断具有隐蔽性和危害性,不法分子通过设计好的语言模型与目标对象进行简单交互即可获取目标信息,从而开展针对性的政治活动、自动画像以及自动跟踪。而对于大模型在完成基础数据收集后通过推断功能衍生信息的规制问题仍然处于监管的真空地带。与此同时,常见的匿名化和模型对齐措施尚无法有效保护用户隐私免受大模型推断的影响。最后,当人工智能体在感知环节以不当方式获取数据并进行决策时,尚未有与之匹配的隐私救济措施加以应对。无论是人工智能体超越用户授权不当收集数据,抑或是用户在与之交互的过程中出现了预期之外的隐私暴露,在现有的法律框架之下,均无有效救济和应对之法。与传统的分析型人工智能有所不同,大模型一旦学习了相关数据便会形成“持久印记”。即使从初始训练数据集中删除该数据点位,也难以弥补隐私利益的损害,因为模型已经持久记忆了相关数据,形成了难以消除的“算法阴影”。因此,目前以数据删除为代表的隐私救济措施均濒于失效。即使采用删除模型或者删除相关算法的“算法罚没”措施,也仍然面临突破比例原则、不当使用情形的认定存在客观阻碍以及执行有效性难以保证等诸多挑战。

第二,多智能体系统的交互可能引发不可预见的、复杂的、动态的系统性安全风险。虽然现阶段人工智能体的部署多以单个智能体为模式,但这一部署模式具有过渡性和临时性。在可预期的未来,为更好地处理复杂任务,由多个智能体进行规划、合作、协调甚至竞争以完成和提高任务绩效的多智能体系统将成为主流和常态。在多智能体系统中,每一个智能体均可以独立感知和行动。各智能体可以依据获得的局部信息或局部视角进行沟通,通过相互协作获取更充分的信息,从而作出高质量决策。在这一感知模式之下,可能产生复杂的、难以预料的系统性安全风险。即使每个算法在单独操作时看似安全和合理,但组合和交互之后可能产生完全不同且难以预测的结果。早在2010年,当时引发关注的美国股票闪电崩盘事件就是由多个算法自动交易触发的安全事件。该事件由高频交易策略引发。该策略由销售算法、指定做市商算法(Designated Market Maker Algorithm)和路由算法(Routing Algorithm)共同自动执行。这些算法通过即时识别股票价格的微小变化,大量执行订单交易以套取利润,导致“多米诺骨牌效应”,仅十分钟蒸发了上万亿美元。以小窥大,传统分析型算法的交互尚且如此,多智能体之间的相互作用更可能带来复杂动态的安全风险。这种风险对现有人工智能治理体系的挑战是全方位的。首先,这种安全风险是系统性的,而非单个智能体行为的简单叠加。但现有人工智能治理框架均以单一算法、单一模型和单一主体为基础,聚焦单一技术和应用的设计、研发与部署。这种治理框架难以应对多智能体复杂交互引发的系统性风险。其次,该种安全风险具有紧急性和动态性。人工智能体的交互是动态的,可能根据新的信息或者智能体的行为即时动态调整自身策略。但目前的人工智能治理规则多具有静态性。即使存在一些动态调整机制,也往往依赖于预设的风险应对策略。智能体之间交互引发的安全风险可能随时间迅速演化,这种风险动态性和治理紧迫性可能超出现有人工智能静态治理范式的应对范畴。最后,该种安全风险具有不确定性和非线性。这意味着即使单个智能体的行为是安全的,其集体性的行动仍然可能凸显脆弱性。且这一脆弱性难以在针对单一智能体的测试和评估之中显现。这一特性还意味着任何造成的损失和伤害均难以从单个智能体的行为中直接推导得出,因此,多智能体系统的归责认定规则亦将面临巨大挑战。

(三)行动端的法律风险与治理风险

与人类的行动机理类似,人工智能体在感知环境后需要整合、分析和推理获得的信息,从而为决策和行动作准备。理想状态下的人工智能体会通过行动端接收控制端和感知端发送的动作序列,实现执行动作以响应甚至重塑环境的能力。从技术发展的趋势来看,具身智能(embodied AI)将引领人工智能体的技术浪潮,成为人工智能体研发和应用的主流范式。所谓具身智能,是指一种基于物理实体进行感知和行动的智能系统,其通过智能体与环境交互获取信息、理解问题、作出决策并实现行动,从而产生智能行为和适应性。具身智能体被视为虚拟智能与物理世界的互通桥梁,也是智能体时代实现人机交互的核心载体。从人工智能体行动端的技术架构以及该端层的技术发展趋势来看,主要存在下列法律风险:

第一,具身智能体的交互式学习模式可能引发全方位、侵入性和隐秘性的隐私风险。受限于物理世界硬件的高成本和数据集缺乏等问题,目前具身智能的研发仍然有赖于高效构建的数据集。当具身智能体部署于真实的物理环境时,人工智能体需要引入丰富的、全方位的传感器输入进行观察、学习和行动。与虚拟环境不同,物理空间依赖交互式学习方法。该方法依赖人工智能体与用户的实时互动,通过基于反馈的学习和观察学习等方式优化能力。这一过程因在物理空间中完成,可能对个人隐私构成全面性、侵入性和隐蔽性风险。首先,人工智能体不仅可以收集文本、视觉和音频等多源数据,其还可以解读用户的肢体语言并感知更加复杂的用户活动,具备广泛的整体环境信息收集和处理能力。例如,有研究表明,搭载了AR/VR设备的人工智能体可以获得视觉追踪、身体运动捕获甚至脑机交互中的脑波信号等信息。而这些在人机互动中的隐私风险远在现行个人信息保护的制度射程之外。其次,具身智能体可能超越最小必要原则和知情同意原则,未经用户授权持续隐秘地监控、收集以及违规共享个人信息。例如,智能家居助手可能在执行日常任务时隐秘记录家庭成员的对话、拍摄用户的私人生活,一旦存在安全漏洞,可能引发巨大的隐私风险和数据安全风险。一项针对消费者物联网设备隐私风险的研究表明,常见的81种智能家居设备中有72个与原始制造商以外的第三方存在共享数据行为。分享的数据范围远超物理设备的基本信息,包括IP地址、设备规格、技术配置、用户使用习惯以及用户偏好等。由于具身智能搭载了多种感知环境的传感器以及执行行动的执行器,因此其可以利用物联网设备进行网络通信,从而获得更强大的数据获取能力和更广泛的互联互通能力。与之伴随,用户的隐私暴露风险将呈指数级增加。此外,由于各大运营商之间对数据共享具有巨大的潜在经济利益,这进一步加剧了具身智能部署过程中隐私保护的复杂性与挑战。

第二,人工智能体嵌入化和中介化的部署方式将全面侵蚀人类主体性。目前,人工智能体的开发秉持“实践中的人工智能体”(Agent in Practice)这一设计原则。在该原则指导之下,人工智能体的部署呈现出单代理、多代理和人机交互三种范式。这些范式的实现均涉及不同层面的人机互动挑战。但伴随着人工智能体自主性的不断提升,人类将逐步在决策环路中被边缘化。人类的社会交往空间也将被不断延展。人工智能体作为人类新型的交往“伙伴”即将迎来“机器人时刻”。这不仅将引发用户依赖、用户沉迷等问题,人类作为独立决策者和独立行动者的能力与地位也将不断受到挑战。首先,人工智能体将逐步具备情感计算的能力,在扩展嵌入式的部署过程中可能衍生情感操纵风险。正如人类在社会化过程中逐渐形成自身特质一样,人工智能体也将展现出“类人智能”,即通过与群体和环境的互动逐渐塑造认知和个性。实践中,不仅已经涌现出如PI、Character AI、Replica、Glow等代表性的陪伴类智能体,更加立体拟人、能够提供较高情绪价值的陪伴类智能体亦具有广阔的市场前景。情感和情绪本是人类最基本的经验构成之一。但在人工智能体充当人类的助手、朋友和伙伴之时,回应、引导甚至操控人类的情绪与情感亦不乏实践中的案例。相关研究表明,基于大模型的人工智能体不仅在某些方面能够表现出类似于人类的深思熟虑和智力水平,其还具备情感智能,可以识别、理解、回应乃至干预人类的情绪,这将极大衍生情感操控风险。例如,微软新版必应搜索引擎包含了代号为Sydney的聊天机器人。该机器人在与用户的交互过程中就出现了影响用户情感的输出。这些输出有时是负面甚至是具有侮辱性和操纵性的。其次,人工智能体被设计成为人类与世界互动的中介,这将极大侵蚀人类的主体性地位,滋生技术反叛的风险。正如图灵奖得主杨立昆指出的,在未来,“每个人与数字世界和知识世界的互动都将由人工智能作为中介”。这意味着人工智能体在主导信息、知识和环境的同时,也获得了与日俱增的自主权。与之相对,人类的信息掌控能力、自主决策能力以及意志自决能力均会受到结构性挑战,面临着从物理世界的主人沦为人工智能体附庸的风险。面对人工智能体带来的“超级助推”式的技术操控风险,由于其在短期内难以量化、难以察觉、难以验证,现有法律救济方式难以为继,从而有可能在社会层面蔓延成为系统性的“技术妨害”。

第三,人工智能体的部署具有高度定制化特征,可能遭遇人工智能对齐挑战。人工智能对齐(AI Alignment)是确保人工智能系统的行为符合人类的意图和价值观的过程,被喻为“安全打开潘多拉魔盒”的黄金密匙。在人工智能对齐训练的过程中,需要依据部署场景和领域确定对齐的行为规范和价值观。例如,自动驾驶场景的行为规范与医疗保健场景的社会和道德规范就有很大不同。因此,开发者在识别和确定对齐规范时面临多样性和个性化之间的挑战。曾有评论指出电气与电子工程师协会发布的第一版人工智能伦理对齐指引的文化取向是“西方式的”,缺乏对多元社区规范和价值观的考量。对于人工智能体这类高度定制化的智能系统,其在设计时将面临更大的对齐挑战,即如何在确保其执行任务时既反映用户个体的独特需求与偏好,同时又不违背普遍的伦理规范和社会价值观?伴随着人工智能体的大规模商业化落地,在个体价值观与社会价值观之间的平衡会面临更高的挑战。一方面,人类价值观往往具有隐性化和情境化特点。人工智能体需要具备更为复杂的语义理解和情境分析能力。另一方面,人类的价值观和伦理标准会动态改变。如何从治理和监管的视角推动开发者研发出具有动态识别和价值敏感的设计功能,具备整合多元化、动态化的伦理和价值观的能力,甚至具备在相互冲突的价值观和伦理规范之间作出准确抉择能力的人工智能体,也将在技术和治理层面面临巨大挑战。

三、“代理即服务”:人工智能体的模块化治理

与传统的人工智能相比,人工智能体的治理面临一系列挑战。首先,人工智能体的架构复杂、端层嵌套,每个端层均可能加剧传统技术风险并衍生新的法律风险。现有法律治理方案难以仅通过局部性、策略性的调整加以有效应对。伴随人工智能体的出现,人工智能产业链架构发生了实质变革。以“代理即服务”(Agent as a Service,AaaS)的产业链架构应运而生。在该种产业链模式下,人工智能体的开发、训练、部署、运行和服务等环节被解耦和专业化分工,形成了复杂的分层结构。每一层均有不同的参与者、利益相关方和潜在风险因素。因此,对应于人工智能体“模块”(Agent Modules)化的产业链特质,需要一种能够覆盖整个产业链和各个端层的新型治理范式。基于此,本文提出面向人工智能体产业链特性的模块化治理范式。该范式以基础模型和基础代理为抓手,通过模块化解构的方式,从数据模块、算法模块、模型架构模块等关键层级和组件出发,设计相应的治理工具和规范,形成独立的治理模块。在部署环节,可根据具体场景的特性灵活选择、协同组合不同的治理模块,在其基础上构建与之相匹配的分类分层治理体系。

其次,“代理即服务”的产业模式之下,多代理部署还将成为主流趋势。这不仅推动了深度的人机交互,还在智能体服务的模块化和组合化部署时形成更为复杂的主体参与网络。这种互联互通的产业链特性还需要治理机制能够跨越不同的开发者和参与主体,突破单项式的治理,实现系统级的协调与交互。因此,人工智能体模块化治理的发挥还需要面向智能体的生态特性,搭配以动态性、参与性、透明性和协作适应性的交互式治理。

最后,还需要深刻认识到,人工智能体仍处于研发和产业化的初步阶段,治理介入的节点、节奏与维度将对技术创新与行业发展产生重大影响。由于基座模型的性能依然存在诸多短板,其技术路线远未迎来固化时刻,未来将会出现基础架构层面的革新与升级。从积极的角度来看,技术的进步也可能使得现阶段预期出现的法律风险迎刃而解。因此,对人工智能体的治理既不可操之过急,亦不可放任自流,而应当抓住人工智能体的核心与关键环节开展前瞻性、渐进性的布局。基于此,人工智能体的模块化治理还需要面向人工智能体产业的发展现状,搭配以精准化的治理机制。一方面积极探索建立人工智能体分类分级的评定标准,另一方面深入探索建立智慧化的监管工具体系,弥合风险动态性与监管静态性之间的张力。

整体而言,模块化治理为人工智能体产业链的关键层级提供了基础的治理思路。精准化治理则因场景而异,对模块化治理形成纵深拓展。而交互式治理贯通模块化治理与精准分层的治理,实现了治理方案的动态优化。三者相辅相成。在该种协同体系之下,有望更为全面地覆盖人工智能体的治理需求,精准制导、与时俱进。

(一)构建从基础模型到基础代理的模块化治理

现阶段,大模型仍处于产业化和商业化发展的初级阶段,基座模型的性能依然存在诸多短板,技术界也提出了各种解决当前技术瓶颈的应对之策。对于人工智能体而言,大模型是所有技术路线中最有助于其实现通用任务能力的基础设施和关键组件。相关研究显示,基础模型对人工智能体的感知、运动、规划和控制方面会带来系统性的提升。而在百花齐放的各类大模型之中,在大量数据上训练而成,具有通用的数据表示能力、知识理解能力和推理能力,通过上下文学习、微调甚至零样本方式,能够实现多元场景轻松迁移并快速适应新环境的基础模型(Foundation Model)是实现通用人工智能体的关键希望。因此,面对纷繁复杂、拥有无尽可能的人工智能体,试图构建一个面面俱到的治理框架可能是不切实际的,相反,牢牢抓住基础模型这一要素,逐步探索出从基础模型到基础代理的模块化治理路径可能成为未来的发展方向。

而在探索构建这一治理方案的过程中,需要着重解决以下两个问题:首先,精准识别具有通用性能、可能带来系统性风险的尖端基础模型并据此构建差异化的监管矩阵。在基础模型内部,基于不同的训练目的和模型性能,各类模型治理风险各异。为给予技术发展充分的制度空间,同时为技术风险提供实时可控的治理框架,欧盟立法者在人工智能法案中通过模型训练期间的算力使用量、模型获取新技能的效率、跨任务的多功能性和性能的通用性、模型泛化能力以及特定的评估基准综合构建分层依据,将基础模型划分为三类:(1)旨在具有能力通用性并位于当今技术发展前沿的通用目的的基础模型;(2)旨在具有能力通用性但非技术尖端性的基础模型;以及(3)并非基于能力通用性而设计,而是为了特定范畴内自动生成内容的生成式工具和应用,其通过对通用目的的基础模型进行微调并向其提供特定任务数据构建而成。在对基础模型进行分层的基础上,施加差异化的事前审查和监管策略,从而在技术创新与安全发展之间达成平衡。这种治理方案尤其适用于技术飞速发展但尚未定型的技术爆发周期。就人工智能体而言,由于该产业的终极发展方向是通用型人工智能体,因此清晰界定具有通用目的、处于技术尖端、具有极强泛化性能且将作为通用智能体核心组件的基础模型将成为构建监管框架的首个攻坚重点。目前,有研究将人工智能体领域使用的基础模型分为用于机器人的基础模型和直接在机器人数据集上进行训练的基础模型两类。前者与现有的大型自然语言模型以及大型语言—视觉模型高度重合,主要解决如何将现有的基础模型在智能体领域实现零样本的应用问题。因此,可以在现有监管框架的基础上推进和完善,探索针对通用尖端基础模型的治理方案。但更具挑战性的是对“机器人基础模型”的治理。“机器人基础模型”是指通过对真实的人工智能体的状态和动作产生的数据集进行训练以解决多元任务的模型。对于该类模型,由于现有技术路线仍在探索与发展之中,因此,应保持密切关注,适时依据技术的阶段性进展探索制定分类分级和风险评估的指标体系,为搭建治理框架积累决策依据。

其次,创建与人工智能体基础模型技术机理相适配的治理工具模块体系。无论是大模型还是人工智能体,尚处于技术飞速发展与商业化落地的探索期,其技术形态以及应用场景均可能瞬息万变。因此,治理框架的构建应具备以不变应万变的能力。这就更需要围绕基础智能体的技术逻辑与发展机理构建与之相适配的工具体系,从而全面提升治理体系的韧性。对于人工智能体的训练而言,需要分别探索构建针对数据、算法、模型架构等关键组件的治理工具模块体系。一方面,针对各关键组件的治理工具模块可以确保大模型治理与人工智能体治理甚至是面向未来的通用人工智能治理框架之间具有互操作性和一致性,避免不同维度治理活动的重叠与冲突。另一方面,具体而微观的治理工具模块又具备灵活性与动态性,能够及时回应复杂技术系统和应用场景之中的多元化治理需求,凸显协同性和包容性特质,通过将快速变迁、复杂耦合甚至冲突竞争的治理挑战隔离到独立模块之中促进多方共识的凝聚,从而创建可执行的合作关系与行动框架,实现治理层面“存异求同”。因此,“模块化治理”方案提供了一种具有可操作性的分解方法。通过将复杂的智能体治理目标拆解为相对独立但关联耦合的模块单元,以逐步破解的方式渐序推动整体治理框架和治理体系的构建。具体而言,需要从控制端、感知端和行动端的技术机理出发,从数据、算法、模型和平台的维度拆解治理“元”模块。在这些模块单元内部,层层细化为具体的评估指标、评估事项以及行动主体,根据风险等级、适用场景、模型类别等因素有机重组,将统一框架灵活转换为适用于某一特定领域、特定类别、特定人工智能体的具体规制框架。

(二)构建面向特定高风险场景的精准化治理

虽然前文从控制端、感知端和行动端详析了人工智能体可能存在的技术隐忧与治理挑战,但人工智能体的发展无疑极大推动了技术自动化和智能化的进程,其亦将赋能千行百业,成为产业变革的催化剂与助推器。现阶段,人工智能体的商业化落地正处于从零到一的关键导入期,探索构建一个精准高效的治理框架,确保该技术的发展与应用始终处于可控且正当的轨道之上始终是一个重要的治理议题。对于仍在高速发展且远未定型的技术而言,相较于采取整全化的治理路径,以合乎比例的方式契合特定场景和技术特性,开展精准化、轻量化的治理可能更具可行性。结合“代理即服务”的产业链模式以及现阶段人工智能体技术泛化能力仍然受限的客观现状,准确识别现阶段的高风险部署场景,针对性、差异化地开展精准化治理有助于治理效能的达成。人工智能体可以分为制造业智能体、服务业智能体和特种智能体三类。在部署路线上,其将首先应用于工业、制造业,随后应用于服务业、家用场景,最后发展成为具有通用性能的人工智能体。在这一部署模式之下,不同应用场景中可能面临的风险等级与风险面向均有所差别。例如,制造业的人工智能体需要更高阈值的稳健性和可靠性,但部署于服务场景的智能体需要具有功能多元、高度自主、灵活应变的能力,因此治理重点应着眼于其与人类交互过程中的安全性和价值对齐问题。尤其是情感陪伴型智能体,因其服务模式可能接触海量个人敏感信息,用户面临个人敏感信息泄露的风险,还应重点对其开展隐私保护的治理。因此,现阶段,应集中监管力量率先应对“高风险”场景,在开展精准治理的同时为探索构建整全化、一体化的治理框架提供前期准备。

欧盟的人工智能法案以风险分类的路径对人工智能新技术和新应用的精准治理作出了样本性的探索。立法者率先锚定人工智能系统可能对人类健康和安全以及可能对个人基本权利产生重大影响这两条主线,围绕系统运行领域、系统使用目的、系统性能、系统用户、受系统影响的主体五个维度识别需要重点监管的“高风险场景”。人工智能法案第6条规定了更为清晰的高风险识别因素:危害性因素,即风险类型,例如歧视、隐私泄露、物理致害等类别;暴露度因素,即风险的强度、可能性、持续时间,以及是否对健康、安全和个人基本权利产生重要影响;脆弱性因素,关注风险潜在受害群体的基数和特殊性以及回应性因素,即风险的可控性和事后救济的有效性。对于人工智能体的精准治理来说,可一定程度借鉴欧盟人工智能法案中分类分级的治理思路,在遵循技术特性与部署规律的基础上,探索构建精准动态的治理方案。

首先,应探索建立人工智能体分类分级的评定标准。在技术驱动发展的时代,专业技术标准往往彰显更佳的治理效能。欧盟人工智能法案对于风险的分级分类思路虽然可取,但因其规则模糊性而广受诟病。因此,人工智能体的评定体系应在细化评估因素的基础上尽量提升规则颗粒度。例如,可从多模态训练数据的来源、内容、标注规范评估歧视、机器幻觉等风险产生的可能性,从输出内容的安全性、准确率、可靠度评估风险的强度、持续时间,从具体用途评估可能受其影响的主体的人口基数、抗风险能力,以及其纠错能力、相关合规措施的完备性等维度评估风险产生后的救济难度,进而判断人工智能体的风险等级,并提出针对性的治理措施。

其次,应探索建立智慧化的监管工具,弥合风险动态性与监管静态性之间的张力。欧盟立法者已经意识到人工智能风险动态性的挑战,因而在人工智能法案第7条规定了修订高风险人工智能识别和认定标准的程序,以确保治理的时效性。对于人工智能体这类风险可能实时涌现、动态变化的治理对象而言,尽快开发出一套监管反馈框架和智慧化治理工具体系具有现实紧迫性。例如,新加坡在大规模制定人工智能监管框架之前,先行与科技企业合作开发了实验性监管工具AIVerify,其可提供人工智能系统的测试框架、工具包和评估分析报告,以技术赋能监管,增加企业与监管机构的互信与合作。因此,面向人工智能体的精准化治理还需要精进监管基础设施,赋能监管机构对高风险应用持续监控、实时评估和即时反馈的能力,以提升监管的敏捷度与实效性。

(三)构建面向智能体生态的交互式治理

作为人工智能技术发展的第四阶段,人工智能体将人类社会迅速推向了一个虚实结合、人机深度交互的智能体社会,开启了全新的智能时代。在智能体社会,将集中呈现出深度交互性、高度互联性以及动态适应性三个特征。第一,智能体社会中人与人工智能系统将呈现广泛深入的交互。一方面,人工智能体需要人类反馈实现动态学习。另一方面,人类仍然需要通过规范和技术深度介入人工智能体的行动和决策,以确保人类处于决策回路之中。第二,智能体社会将呈现万物互联的态势。如前文所述,单一人工智能体可能遭遇能力局限和行动边界,故多代理型部署方式将成为主流。因此,智能体社会不仅存在深度的人机交互,更将凸显万物互联之势。在引人瞩目的“智能体虚拟小镇”实验中,研究者发现构建的25个人工智能体在虚拟小镇环境中呈现出类似人类社会的社交行为。虚拟小镇中的智能体不仅会彼此共享信息、记忆智能体交互的细节,甚至可以联合策划一场情人节派对。由此可见,未来的智能体社会将呈现高度智能和万物互联之势。第三,人工智能体可以凭借自我规划与迭代的能力,借助交互学习和自适应能力,适应甚至重塑不断变化的环境。因此,人工智能体社会还将呈现动态和不断延展的组织特性。在这一宏观变革之下,人工智能体的治理还需要探索一种交互式的治理模式。在人工智能体的产业链条上,至少存在大模型厂商、人工智能体厂商、下游端侧的中小企业、人工智能体用户、技术社群以及社会公众等多个主体。交互式的治理模式需要遵循人工智能体的产业链生态,将各个主体均纳入治理链条中来。

首先,作为人工智能体的“智商引擎”,大模型开发者需要在现有监管框架下履行一系列数据、算法、内容层面的合规义务。更为重要的是,由于人工智能体呈现多主体协同的部署趋势,大模型开发者之间还应积极探索共建共治机制,以应对多智能体协同带来的公共外部风险。此外,鉴于大模型开发者具有全栈发展的趋势,其与人工智能体的开发商可能高度重合。因此,其在一定程度上还应履行“守门人”义务,对中下游主体履行监管要求加以必要的协助。其次,应着力培育技术社群以探索智能体社会的“众包型”治理模式。面对性能强大的人工智能体,可能个体用户受限于时间、能力、知识和精力,难以与之抗衡。技术社群内部的紧密结合与专业知识的加持将有助于在人工智能企业内部构建有效的约束机制。例如,针对微软Copilot Designer产品生成色情与暴力内容的问题,微软内部的AI工程主管沙恩·琼斯在自测环节发现该问题后第一时间向微软上报。但由于微软怠于改善该问题,其在社交平台上发表了公开信并向美国参议院发函,同时会见了美国参议院商业、科学与运输委员会的工作人员,以督促该问题引发关注并得到妥善解决。因此,技术社群对于人工智能体的治理将起到至关重要的“吹哨人”效应。最后,对于智能体社会的“未来公民”而言,政府还应积极培育其数字文化素养,树立其在与智能体交互过程中负责任使用的意识。人工智能时代,用户已非作为单个个体而存在,相反,其通过算法、平台以及人工智能系统与其他用户、数据、环境产生连接和影响,成为了人工智能时代的“跨个体用户”。因此,人工智能时代的治理应当超越传统的以个体为中心的治理,关注更为广泛的互联依赖的生态关系。在智能体社会,基于法律的治理仅能解决有限的甚至是底线性的问题。智能体社会的治理尤为需要多方参与和多层次协作。“通过多元化的治理举措施支持生成式人工智能创新发展和可靠应用”。只有真正实现智能体生态中的良性交互,培育向上向善的运行生态,才能从更为长远和系统的角度应对这一颠覆性变革。

结语

人工智能体开启了人类走向通用人工智能的“新纪元”,其不仅具有推动产业创新、构筑竞争优势的巨大潜力,还可能带来社会生产力的大规模解放与人类生产生活方式的重大变革。人工智能体将会带来一批新的产业、新的业态并积蓄新的动能,带动一系列以智能、泛在为特征的颠覆性技术变革。在这一重大的科技革命与产业革命交汇期,习近平总书记提出“新质生产力”这一重大概念。所谓新质生产力,是指由技术革命性突破、生产要素创新性配置以及产业深度转型升级而催生的当代先进生产力。新质生产力代表着科技的发展方向,代表着产业升级的重大趋势,汇聚着人类社会前进的优势动能。可以说,人工智能体是本轮科技革命浪潮中的新质生产力。作为世界人工智能的主要创发力量,我国更需要优化新质生产力的发展生态,一方面推动其解放和发展,另一方面推动其在负责任创新的轨道上不断完善,从而全面贯彻新发展理念,推动高质量发展与高水平安全的良性互动。

(本文来源于《东方法学》2024年第3期)

专题统筹:秦前松