中国实践
数字法治|张凌寒、贾斯瑶:人工智能生成内容标识制度的逻辑更新与制度优化
2024-05-06 14:47  点击:16482

1714978325416862.png

张凌寒

中国政法大学数据法治研究院教授

博士生导师

贾斯瑶

中国政法大学数据法治研究院

博士研究生

一、问题的提出:“是否AI生成”的标识制度无法满足内容治理需求

生成式人工智能已经颠覆人类获取信息方式,并预期2026年AIGC将占据未来互联网内容的90%。OpenAI公司推出的对话式人工智能ChatGPT展现出了卓越的语言生成、信息创造能力,其生成的信息在外观上具有可信赖度,用户会越来越习惯、依赖和信任人工智能提供的回答。基于此,对人工智能生成信息进行标识显得尤为必要。

我国尝试设立了深度合成内容的标识制度。《互联网信息服务算法推荐管理规定》第九条要求,算法推荐服务者建立健全用于识别违法信息、不良信息的特征库,未作显著标识的算法生成合成信息的,

应当作出显著标识后方可继续传输。《互联网信息服务深度合成管理规定》提出了内容标识管理要求,《生成式人工智能服务管理暂行办法》同样强调了服务提供者有义务对生成内容进行标识。与此同时,这也是各国共同采取的生成式人工智能内容治理方式。如美国白宫《人工智能行动令》第1条强调,要求为人工智能制定新的安全标准,要求人工智能公司与联邦政府分享安全测试结果,同时指示商务部为人工智能水印制定指南。其商务部将制定内容认证和水印的指南,以明确标记AI生成的内容。

然而,“是否AI生成”的标识思路远远无法应对生成式人工智能带来的挑战:第一,人工智能生成内容具有巨量性,生成速度快、生成内容覆盖领域广泛,具有可迭代性与可扩展性,人工审核的速度及能力远远难以匹敌。第二,人工智能生成内容外观具有高度可信赖性,极易被认为是“知识权威”。人工智能生成内容信息外观仿真度高,人工智能信息的生成逻辑以模拟真实信息为终点,在信息表面的文字表述、语言结构等方面与真实信息无异。在美国乘客Roberto起诉哥伦比亚航空公司的案件中,代理律师Schwartz引用了ChatGPT生成的六个案例,当他向ChatGPT求证这些案例是否属实时,机器人称“千真万确”,然而法官发现六个案例的判决结果、引用出处均为虚构。不仅在事实信息上出现错误,甚至对知识类信息进行虚构。墨尔本西北部地区HepburnShire议会的现任市长BrianHood曾揭发 Securency印钞公司的行贿行为,但ChatGPT却称他“参与向印尼和马来西亚的官员行贿并被判入狱”。

将人工智能生成内容进行无差别贴标,意味着真实信息、虚构信息、虚假信息一并被贴上标签,是一种形式标识,仍将内容质量的辨识义务留给了用户。目前,世界各国普遍采用的加注“是否AI生成”的标识制度无法满足人工智能时代的内容治理需求,未能有效降低虚假信息的扩散风险。本文围绕生成式人工智能内容治理的目标展开研究,首先讨论生成式人工智能对内容分类治理逻辑带来的挑战,并提出生成式人工智能服务提供者作为内容的生产者与分发者应承担信息质量安全保障义务与信息披露义务,并基于此提出AIGC内容的标识制度的优化设计方案。

二、生成式人工智能对内容分类治理逻辑带来的严峻挑战

人工智能生成虚假信息的风险之高在于突破了现行内容治理逻辑。用户生成内容时代形成的治理逻辑是价值判断与真伪判断的二元分流,这一阶段机器生成的内容虽有但少,由人工审核足以完成。人工智能生成内容的席卷性出现,使得治理重点向生成来源倾斜,导致生成内容质量完全交由用户判断,进而衍生各类问题与风险。就此,应尽快修正并建立信息生成来源与真伪判断并行的双轨制。

(一)治理现状:价值判断与真伪判断的二元分流机制

在用户生成内容为主的时代,根据生成来源将内容分流为机器生成与用户生成。由于这一阶段人工智能生成内容在数量上占比较低,通常将人工智能生成内容的真伪判断默认为伪,由人工审核对其进行价值判断。用户生成内容则在“价值判断+真伪判断”的二元分类机制中完成筛选。随着人工智能生成内容的信息比例日益提高,信息内容分流压力与日俱增,依据生成来源将机器生成信息交由人工审核的分类模式产生不适,而价值判断、真伪判断的并行逻辑无法准确定性人工智能生成内容,内容分类参照存在紊乱与混淆。

在传统媒体时代,按照信息来源分为专业生成内容(ProfessionalGeneratedContent,简称PGC)和用户生成内容(UserGeneratedContent,简称UGC)。这一阶段的专业生成内容,指由专业的创作者或团队进行创作、编辑、发布的专业生成内容,常见于报纸、杂志、电视等,创作内容的质量与专业度较高,信息筛选、审核工作主要通过创作者所在机构的审校流程完成。随着web2.0时代社交网络、在线论坛、博客等平台的出现,由普通用户参与创作、编辑、发布的用户生成内容逐渐流行,构筑了用户生成内容为主的信息时代。用户创作具有主观性,其内容质量有赖于价值判断与真伪判断的二元分流。用户生成内容时代,已经出现了人工智能生成内容(ArtificialIntelligenceGeneratedContent,简称AIGC),指利用人工智能技术和自然语言处理技术进行内容生成,创作速度快,质量依赖算法精度与模型训练。但此时人工智能的能力与交互性尚弱,不足以成为生产信息内容的主力军。

在信息内容价值判断的分类逻辑中,按信息内容的合法性可将其分为合法信息、不良信息和违法信息。《网络信息内容生态治理规定》对违法信息、不良信息进行了分别定义,“禁止”违法信息的传播、“防范抵制”不良信息的传播表明了在程度上的区分。在《互联网信息服务算法推荐管理规定》中,为加强信息安全管理,对违法信息与不良信息进行了区分。算法推荐服务提供者发现违法信息的,应当立即停止传输,采取消除等处置措施,防止信息扩散,保存有关记录,并向网信部门和有关部门报告。发现不良信息的,应当按照网络信息内容生态治理有关规定予以处置。在《互联网信息服务深度合成管理规定》中,针对深度合成服务提供者,同样要求建立健全用于识别违法和不良信息的特征库,对违法信息与不良信息采取不同应对措施。

在信息内容真伪判断的分类逻辑中,按照信息内容的真实性,可将其分为虚假信息和真实信息。《网络安全法》中使用了“虚假信息”的概念,《生成式人工智能服务管理办法(征求意见稿)》中同样采“虚假信息”的表述,而2023年7月10日发布的《生成式人工智能服务管理暂行办法》中使用的表述是“虚假有害信息”。本文认为,“虚假有害信息”是复合概念,其中有害信息的危害程度应当高于虚假信息,对有害信息应参照违法信息进行处理,对虚假信息可比照不良信息进行处理。一方面,有害信息与违法信息的危害程度相同,且均高于不良信息。有害信息与违法信息所保护的法律权益均是国家安全、个人尊严名誉与隐私、经济秩序安全、信息安全等,在程度上有害信息的有害性程度应高于不良信息,有害信息是指在价值观、伦理等方面具有严重错误的信息,这种信息的传播危害性大,可能涉及国家、社会、个人权益;而不良信息更多指有害性程度相对较低的信息。另一方面,虚假信息与不良信息在实务当中存在混用,相较于违法性而言更强调内容的真假性。

(二)治理目标:生成来源与真伪判断双轨并行机制

随着生成式人工智能的广泛应用,机器生成的信息比例越来越高,生成来源的单轨判断标准仅具有形式上的判断功效,不具备信息内容治理的实质作用。人工智能生成内容的治理难点在于虚假信息(false)与虚构信息(fiction)的混淆,仅从信息外观上无法判定其性质,精细的人工筛查又难以追赶机器生成信息的速度。在语言模型技术上的优化也收效甚微,OpenAI等开发方一直在通过“基于人类反馈的强化学习”(RLHF)等人工手段来完善过滤机制,但在不依赖外部信息源实时检索的情况下,提高准确度并未显著提升。

社会治理思路的惯性决定了目前仍是由政府管控、网站自治、用户举报三种管理形式相结合的模式。在此模式中,用户上传信息后,由平台机器进行自动化筛选,再经由人工审核后得以发布。“平台审核+用户选择”的双层筛选逻辑作为内置审核标准,可以将其理解为大型信息过滤筛选机制,平台层面对生成信息的合法性进行初筛,将违法信息、不良信息通过关键词识别实现禁止传播、防范抵制传播。而人工智能生成内容时代,应当摒弃人工审核为主的治理思路。人工审核的速度及准确性难以追赶人工智能生成的效率,在生成式人工智能实时与用户对话阶段更难以介入。从内容审核工作本身看,当前该工作的主要承担者仍然是人而非机器,机器识别“计算机视觉技术”(computervision)在技术和资金上尚不支持大规模全面运用在众多审核场景中。对于违反法律或平台规则的内容,审核员运用计算机工具进行大规模处理,例如运用文本屏蔽词自动搜索工具搜索违禁词(常见于文字评论区的审核),通过“皮肤过滤器”(skinfilters)识别图片和视频中的大面积裸体来判定色情内容(尽管不一定都准确),或者使用一些工具来匹配、标记和删除侵权内容。人机结合的审核制度被普遍应用,在算法式新闻分发的新闻资讯类客户端里,人工编辑主要承担内容审核职责。以“一点资讯”为例,通过事先建立的敏感词库和“差文过滤模型”,文章在进入内容池之前将首先通过机器审核,机器审核后会优先标注触及敏感词和质量有问题的文章并通知人工编辑优先审核。目前决定用户最终看到信息的仍是人工审核员,而在人工智能生成信息涌入前,人工审核、人机结合审核的压力已达饱和。

1714978352687067.png

图1当前人工智能生成内容的治理逻辑

随着人工智能生成信息的广泛应用,大量反检测技术尝试进行信息筛选工作。当前基于大型语言模型(largelanguagemodels,LLMs)的文本检测技术可分为两类。一是将机器生成的文本检测任务比拟为一个二分类问题,根据文本来源的预定义类别对候选文本进行分类。但该模型倾向于参与训练的那些文本来源,并且不具备增量学习功能,如果想要使模型能够识别未知来源的文本,就需要对模型整体重新训练。另一种检测技术不需要训练单独的分类器,使用目标模型计算的对数概率和来自另一个通用预训练语言模型的文章随机扰动,例如DetectGPT零镜头文本检测,如果平均对数比高,则样本可能来自源模型。在实际应用中,人工智能生成的文本往往位于文本对数概率的负曲率上,导致识别准确率低。在人工智能生成信息的巨量性面前,反检测技术犹如蚍蜉撼树。

人工审核与技术手段均无法解决时,机器主动标识成为信息内容治理的必要手段。欧洲议会通过对《人工智能法案》框架的调整明确“缺乏真实性”是生成式人工智能的首要风险。欧盟委员会在《人工智能法案》中要求人工智能服务提供者使用欧盟信任的CE标志,并向用户提供内容来源、目的、特征等信息。美国联邦贸易委员会在《生成式人工智能服务内容标识指南》中要求提供者使用生成式人工智能技术创建或编辑图像、视频、音频或文本时,应当清楚地披露这一事实。我国信息安全标准化技术委员会发布《网络安全标准实践指南——生成式人工智能服务内容标识方法》,规定了四类生成内容的具体标识方法。各国虽都十分重视标识制度的作用,但当前的标识设计思路未能满足营造更真实信息网络生态环境的治理需求。标识需要同时具备来源与真伪的双轨判断逻辑,甚至在人工智能生成内容与日俱增、生成内容质量不断完善的过程中,为降低用户信息筛选成本,真伪判断的重要性将远远超过价值判断。

三、人工智能生成内容标识制度的法理基础与逻辑修正

个体的认知能力在人工智能生成内容的巨量性、可信赖性、强引导性面前显得尤为单薄。占据信息优势地位的人工智能服务提供者应主动进行信息披露,使用户能够借助外在的标识进行信息接收与筛选。标识制度的另一层考量是修正用户对于人工智能生成内容的依赖与信任,矫正算法引发的认知挤压、心理冲击等问题。

(一)法理基础:作为内容生产者与分发者的质量安全保障与信息披露义务

信息披露制度体现了公权对私权的限制。公权对在实质处于强势的私权进行限制能较充分地实现实质公平。现代社会之所以从工业社会向信息社会转型,并不是因为生产已经不重要了,而是因为生产决策与交易决策的作出更有赖于充分、有效的信息。在人工智能时代,信息是一切机器决策和生成内容的基础,亦是机器对人产生影响的主要方式。由于人工智能所占有的信息是巨量的,人类单靠自身智能难以拥有充分的、对称分布的认知,因此需要借助占据信息优势地位的人工智能进行信息披露,使人类能够借助外在的标识进行信息接收与筛选。

信息披露是体现信息性的关键。信息的信息性是通过“商”的增加或减少的量进行衡量。而信息的“商”是否增减并不是客观、外部的测量,应归根于人类认知与交流结构之中,有意义的、真实的、能够为人类决策提供价值的信息,才是有效的信息形式。生成式人工智能的标识制度不仅限于信息披露和信息透明度,在用户获得知情权的同时也能对内容生成主体的生成行为产生倒逼效果。这一点与其他知情权立法逻辑相同。以《食品安全法》中的食品营养标签制度为例,在信息披露的情形下,经由市场的压力传导,生产者会主动减少高脂、高糖、高盐食品的生产,最终促进更多健康食品的生成。

此外,与一般情形下知情权立法逻辑的差异在于,人工智能生成领域的标识制度并不以增强产品的吸引力、易理解性、可信赖度为目的,相反要遏制产品(即生成内容)的强引导性与可信赖性。因此,在具体制度设计中,应当反向对需要引起警惕的低质量内容重点标识,不能对全部生成内容进行无差别标识。适当的信息披露制度能够增强信息的易注意性,提升信息使用的便利性,而过度的信息披露反而会造成信息接受的负担。全部“贴标”在引起注意义务的效果上可以视为全部未经标识。生成式人工智能的标识需根据内容质量进行分级分类标识,保证内容质量合格的人工智能生成内容可以不进行显性标识、不影响用户正常使用。

(二)逻辑修正:标识制度对于人工智能算法风险的矫正功效

“人机交互”构筑了智能性与封闭性正相关的信息环境,情景化、对话式的交互方式卸下用户交流中的防备心理,算法的偏好分析使人工智能对不同用户生成量身定制的回答,与固有认知的高度契合致使用户自动省略了对信息的筛选辨认,导致用户极易对人工智能生成信息产生信赖与推崇。根据麦克卢汉的媒介理论,“媒介”泛指与人有关的一切技术,人造物与技术物的核心是它隐含的讯息,可以理解为一种物质意义,包括技术创造出来的环境、技术带来的感知形态和感知模式的变化、技术对人的心理和社会的冲击。生成式人工智能突破性的意义在于它的信息生产功能,能够有计划、有目的地输出讯息,作为媒介重塑、调整人们的感知模式与认知模式,改变信息传播及接收方式,进而引发心理后果及社会后果。当人工智能生成信息源源不断产生时,在短时间内人们的感知系统、认知系统、社会环境将出现“拥挤感”,面对生成式人工智能的高效输出,人几乎不具备与之抗衡的筛选能力。人工智能生成内容通过对现有知识的排列组合,增加了信息的“商”,但并未产生新的知识,没有高质量信息的产生。人类社会对于信息的需求度、接收度是有限的,而人工智能生成信息的“真假待定”性质决定了其无法直接增益于信息社会。相反,人工智能生成信息的便利性替代了人类主动输出信息的繁复过程,人工智能生成信息的快速性压缩了人类信息迭代演化的周期性,使得人们的认知忙于“急躁”的辨认和筛选之中。人工智能生成信息的能力越强,“真假待定”的生成信息对人类辨识能力、认知能力的挤压度就越高。

在心理学上,遗传性人工智能模型对人类信仰的扭曲不容易被纠正。人通过对世界上一小部分可用数据的抽样,形成了自己的观念,一旦这些观念具有高度确定性、顽固性,就难以再被修改。生成式人工智能以“用户输入+机器输出”的形式提供服务,生成内容的性质、价值取向在很大程度上取决于用户输入指令。2023年5月25日,新西兰信息专员办公室(OfficeofthePrivacyCommissioner)在发布的《生成式人工智能指南》中提到:“生成式人工智能工具生成的信息经常出现事实或逻辑错误,但它又对其生成的信息非常自信,这可能进一步导致偏见和歧视永久存在。”生成式人工智能存在模型幻觉风险,在不具有恶意外力驱使的情况下仍可能会产生虚假信息。例如在Schwartz律师代理的案件中ChatGPT引用虚假判决、又如在提供文献资料时虚构详细的文献作者及出处、再如在EugeneVolokh要求其列出法学教授犯罪新闻时编造详细的犯罪事实。从技术上看,模型幻觉产生的三大来源分别是数据缺陷、训练过程中的架构缺陷、曝露偏差、对齐错误,推理阶段的抽样随机性。固然,人也会传播错误信息或有偏见的信息,但人与人的交流中往往使用“我认为”“我想”这样的短语,或通过反应延迟、表达不流畅等方式提示不确定性。人工智能模型则不存在表达缓冲区,不仅不会引起信息接收者的迟疑,甚至受到了推崇,即人工智能自信、流畅的表达还会增加其可信赖度。

兰登·温纳在《自主性技术》中写道:我们创造的机器剥夺了我们的空间感和触摸感,它混淆了所有人际关系,使爱狭隘化,变成了一种肉体行为,它麻痹了我们的身体和意志,而且现在它强迫我们崇拜它。人工智能被视为知识渊博、思维敏捷的象征,其提供的信息更容易获得采纳。如果人们基于某种不确定性产生获取信息的需求,从而与生成式人工智能建立对话,一旦在对话过程中获得了“答案”,人们的不确定性就会下降。一旦一个错误的观念在人的大脑中固定,特别是相同的错误观念在群体内获得传播,它就会在这一群体中永久性地传递下去。生成式人工智能每天产生数百万的输出,这种输出反过来又成为下一代模型训练数据的一部分,在一个连续的反馈循环中把算法扭曲和偏见的影响扩大到了未来。

(三)制度优势:推动现实空间与网络空间信息治理逻辑的统一

人通过获得、识别自然界和社会的不同信息来区别不同事物,得以认识和改造世界。无论是在现实社会或是网络空间中,以人为本都是信息内容生产、使用和传播的最终目的。“标识”根植于人们的辨认习惯,符合以人为本的信息使用目的,是推动现实社会与网络空间治理逻辑统一的纽带。在现实社会中,《食品安全法》第67条规定预包装食品的包装上应当有“检验合规”的标签,《危险化学品安全管理条例》第13条规定生产、储存危险化学品的单位,应当对其铺设的危险化学品管道设置明显标志。安全标志能够提醒人们对某种物品或动作高度警惕,强化管理、维护、运输流程,从而避免危险的发生。信息网络社会中,“tag”养成了用户分类、标签、检索习惯,通过标识的方式引起信息受众的警惕在网络服务提供中也屡见不鲜。《电子商务法》第40条规定的竞价排名业务的广告标注义务,平台经营者干预算法的客观搜索排序,属于平台经营者自主决定用户搜索结果的排序,被干预后的搜索结果应显著标明“广告”。互联网用户多对标识的提示作用并不陌生,在短视频平台、社交媒体平台中时常会出现带有“广告”标识的内容,“广告”二字本身尚不会影响用户对内容的浏览,但用户潜意识中会更加警惕。在未来,现实空间与网络空间不断融合的过程中,带有标识的信息可实现在双重空间内无差别流通,甚至标识可能如同标点符号一样成为信息内容不可或缺的一部分。

四、人工智能生成内容标识制度的完善与优化

信息披露是现代社会信息公开的重要途径与手段,标识制度是信息披露义务在人工智能领域的体现。标识制度的优化设计应以健康的信息网络生态环境为导向,明确以生成式人工智能服务提供者为核心的主体责任,设置多维度的人工智能生成内容质量光谱标识。

(一)制度目标:以健康的信息网络生态环境为导向

网络内容的治理远不止于判断“是否AI生成”。我国以总体国家安全观统筹网络意识形态安全,在《国家安全法》《网络安全法》《数据安全法》《互联网信息服务管理办法》等法律法规的框架下,内容治理需求有:第一,坚持维护国家网络空间主权与意识形态安全;第二,构建多主体协同治理、相互配合的信息内容治理体系;第三,实现“网络生态治理和管理”向“网络生态建设和发展”的定位转变,致力于营造真实、健康、可持续发展的信息网络生态环境。

人工智能生成内容标识制度的短期目的是搭建人工智能生成内容进入人类认知的“缓冲带”,通过对低质量内容的强制标识,避免人工智能生成内容在经价值判断、真伪判断前无障碍流入信息社会,符合以用户为核心的制度设计初衷。长期效果是提升AIGC时代的信息内容治理能力,减少虚假信息的生成,防止虚假信息污染下一代训练数据,优化人工智能内容生成、筛选、审核机制,夯实模型方与服务提供者的信息披露义务,营造良好的网络信息生态环境。在不影响用户使用的情况下,还需保证标识的真实性和唯一性,以利于溯源追踪深度合成信息流向,及时阻断有害合成信息传播;同时要求在合理位置、区域进行显著标识,防止公众混淆或误认,提升公众识别合成内容的能力,降低造谣、诈骗等违法行为的风险。

(二)标识的主体:以生成式人工智能服务提供者为核心

生成式人工智能风险预防与响应机制需要多主体协作完成,应建立由政府主导、生成式人工智能服务提供者为核心、用户协同参与的多元治理体系。以生成式人工智能服务提供者为核心,是因为生成式人工智能大模型作为一种全新的信息内容生产和传播平台,虽然尚未展现出全貌,但其生成性、集成性、通用性、智能交互性的特征,正在使其成为信息生产和传播的主要垄断者。全球范围内要求人工智能服务提供者履行标识义务已是大势所趋。在欧盟《人工智能法案》最新草案中指出,鉴于人工智能系统价值链的性质和复杂性,基础模型开发者具有信息披露义务。美国白宫《人工智能行动令》第1条中强调,要求为人工智能制定新的安全标准,要求人工智能公司与联邦政府分享安全测试结果,同时指示商务部为人工智能水印制定指南;商务部将制定内容认证和水印的指南,以明确标记AI生成的内容;联邦机构将使用这些工具,使美国民众能够更易知道他们从政府收到的通信是真实的,并为私营部门和世界各地的政府树立榜样。

生成式人工智能服务提供者又可依据不同市场角色分为基础大模型开发者、垂直行业模型开发者与生成内容服务提供者。为避免信息披露义务的形式化履行,披露义务应具体包括:生成来源的强制性标识、责任主体的强制性标识、生成内容质量应属于强制性披露范围。第一,位于上游环节的基础大模型开发者具有标识义务,应主动对生成内容进行标识并为下游的服务提供者提供必要的技术支持。“模型即服务”时代,上游开发者对生成式人工智能模型的熟悉度与掌握度最高,有能力对关键开发步骤信息、部署环境配置说明、模型性能、扩展和调整性能指导、故障排除、更新维护以及特定应用环境下的风险警示等内容加以披露和说明,为中下游部署者构建适配的风险管理机制加以必要的信息支持。第二,生成式人工智能服务提供者直面用户,其对提供服务的形式享有决定权。《深度合成管理规定》中规定了披露义务的承担主体是深度合成服务提供者,生成内容使用者不需要主动承担披露义务,但具有不破坏已有标识的义务。当前生成式人工智能的模型开发方与服务提供者通常是一个主体,密不可分。从信息标识义务的执行上看,隐式水印技术一般在模型生成内容时实现,天然应该是模型方承担。而显性标识可以通过内容后处理、用户界面添加等方式实现,天然与服务提供形式联系。第三,用户具有不破坏已有标识的义务。模型开发方与服务提供方已经在技术上设置了普通用户难以篡改和删除的水印,用户使用生成内容的同时需履行保持水印的义务以便实现对生成内容的全平台检测追踪和责任认定。

(三)标识的内容:以设置多维度的内容质量光谱为路径

全国信息安全标准化技术委员会在《网络安全标准实践指南——生成式人工智能服务内容标识方法》中给出了内容标识方法,或通过在交互界面中添加半透明文字的方式显示水印标识,或通过人类无法直接感知、但可通过技术手段从内容中提取的隐式水印标识,提示内容是由人工智能生成的。显式水印能够被直观察觉,使信息接收者在获取信息的同时收到警惕提醒,抑制人工智能生成信息对人类辨识能力的挤压作用。隐式水印通常采用独创算法,在原文件的基础上嵌入隐形数字编码水印,信息接收者在视觉感知上无法察觉,但在技术层面可用于信息的追根溯源。可见,AIGC的标识制度仍停留于信息内容来源的表面,缺乏对于来源可靠性的体现。常见结构包含内容标签(ContentLabels)、可视化水印(VisibleWatermarks)、署名和披露字段(BylinesandDisclosureFields)、版权声明(Acknowledgments)、技术水印和加密签名(TechnicalWatermarkingandCryptographicSignatures)五部分。其中,可视化水印、署名和披露字段是用户能够看到的标识成分,作用在于表明生成内容中含有人工智能的参与,解释人工智能在共同开发内容中的作用,显然该标识方式向用户进行的披露不足以支撑用户实现真伪判断。标识的本质是提示内容生成来源,在接收内容的短时间内来源正是判断真伪的核心,然而人类大脑分辨信息的习惯决定了来源可靠性必须是个多维度的综合分析。例如信息来源是否具有权威性,由专家、研究人员证明的可信赖度应显著提高;信息来源的前后文语境是否具有逻辑性与连贯性,通顺的、逻辑周密的表达更容易获得认可;人工智能对信息来源进行了何种程度的修改,直接引用的内容质量通常高于断章取义或多来源组合拼凑。

然而,来源的全部披露显然是不可取的,对透明度的一味追求与标识在形式上精简、直观的要求相悖,会影响用户对生成内容的使用。因此,人工智能服务提供者应将来源的可靠性判断内置于“贴标”的流程中而非“标”本身之中,生成内容质量光谱的作用是连接来源可靠性与标识程度的枢纽。人工智能服务提供者应将来源可靠性的判断内置于“贴标”的流程而非“标”本身之中,生成内容质量光谱则发挥评估是否需要进行标识、应当进行何种标识的作用。生成内容的质量与生成来源可靠性呈正相关,而标识制度存在的必要性与生成内容的质量呈负相关。换言之,如果生成来源绝对可靠,应当默认生成内容符合质量要求,没有必要额外进行标识以强调该内容是由机器生成的。

1714978385195836.png

图2生成内容质量光谱的设置思路

生成内容质量光谱是为提示人工智能服务提供者如何进行标识而设置的,可以理解为一种指引。在标识制度由“是否机器生成”的形式标识向“判断内容真伪”的质量标识转变时,人工智能服务提供者应当对生成内容原则上采取无标识或简略标识的做法。而对社会危害性高的生成内容,依照光谱进行分级分类标识。《生成式人工智能服务管理暂行办法》第1条明确要求维护国家安全和公共利益,保护公民、法人和其他组织的合法权益,因此必须在标识中予以体现。第一,根据我国网络安全的要求,对过滤内容的判断应在算法伦理原则和相关算法、网络安全规范的框架下作分段处理,将明确损害国家、社会安全利益的信息内容列为“最高敏感级”,对损害国家、社会安全利益存在模糊性的信息内容以及损害个体的信息内容列为“一般敏感级”。对危害国家安全、损害社会公共利益的低质量生成内容应进行强制标识,此类内容在真伪性与价值性双轨判断中均处于下象限,若未在预训练阶段进行剔除,要求强制进行显著标识以提示用户。第二,应依托不同应用服务场景对教育、公共卫生、新闻等关键领域进行特殊标识,此类信息内容的受众广泛、传播速度极快,甚至可能引起代表官方立场的歧义,一旦生成内容中含有虚假有害信息,事后修正效果甚微。第三,当生成内容涉及商用或侵犯个人权益时,经申请、举报等程序进入人工审核,审核后则可根据应用人本人或被侵权人申请,按照特定程序,从应用端到部署端再到建模端,依次进行注明公开。

结语

智能时代又被称之为后信息时代,智能技术的发展将重塑信息生产途径、沟通交流方式与知识表达结构,革新信息社会的内容治理逻辑迫在眉睫。标识制度是个体辨别生成内容与信息社会优化内容质量的共同需求,生成来源与真伪判断的双轨制治理逻辑能够应对现阶段的生成式人工智能,在未来高度智能化的通用人工智能场景下,生成来源判断的必要性将持续降低,而真伪辨别会成为内容治理的唯一轴心。

(原文刊载于《求是学刊》2024年第1期)

1714978401122328.png

专题统筹:秦前松