王立梅
中国政法大学数据法治研究院教授
一、问题的提出
网络技术和互联网终端在社会生活中的普及拓展了人们的话语空间,深刻地改变着人与人之间的信息沟通与交流。在自由表达的同时,网络也成为各种社会现实问题和社会矛盾讨论争论甚至冲突的场域,网络暴力随之滋生并有愈演愈烈之势并引发了社会各界的高度重视,中央网信办于2022年4月发起“清朗·网络暴力专项治理行动”,同年11月印发《关于切实加强网络暴力治理的通知》(以下简称《通知》),该《通知》要求,“建立健全网暴预警预防机制”“强化网暴当事人保护”“严防网暴信息传播扩散”;并于2023年7月发布《网络暴力信息治理规定(征求意见稿)》,进一步明确了网络暴力信息治理的主体责任。最高人民法院、最高人民检察院、公安部于2023年9月联合发布《关于依法惩治网络暴力违法犯罪的指导意见》(以下简称《意见》),对网络暴力行为的刑事责任予以明确,并提出“做实诉源治理,深入分析滋生助推网络暴力发生的根源”“促进网络暴力综合治理”等要求。
网络暴力应如何治理,当前的研究主要集中在理念、模式和体系构建,注重长效机制,规制路径多从事后追责的角度展开,体现出明显的事后主义色彩。例如有学者将网络暴力进行解构,对作为其主要表现形式的侮辱诽谤行为进行类型化研究,并指出其具有“聚量性”特征并对其进行刑法上的评价;有学者从网络暴力造成严重后果的利益分析和刑事应对角度思量网络暴力的刑事治理;有学者要求以积极刑法观、宽严相济为价值基础。另外,还有学者认为网络暴力造成受害人自杀时,在特定情况下应当认为网络暴力能成为杀人罪的实行行为并与自杀死亡结果具有因果关系;有学者从调试网络暴力公私合作治理模式的角度展开讨论,呼吁应在“多元干预、协同治理”的整体思路指导下,健全网络暴力法律治理的框架体系,重点完善网络服务提供者的数据合规体系,不断强化网络暴力的刑事规制,最终实现对网络暴力的长效治理;也有学者认为应当谨慎发挥刑法的作用,应采取多维共治的方式、夯实平台主体责任以实现对网络暴力的有效治理;亦有学者认为应当重新构建网络暴力治理理念、逻辑与路径,应当在协同共治与系统性法治模式的指引下,构建网络暴力治理领域的专门性立法体系。
然而,观察司法案例可以发现,涉网络暴力案件的司法救济非常艰难,“杭州女子取快递被造谣案”经由自诉转公诉才最终维权成功,而“四川德阳女医生被网暴”案中,被害人自杀身亡后,检察机关才得以侮辱罪提起公诉。在大多数网络暴力事件中,因为难以确定直接发起者,同时网络暴力事件的成因往往是网络暴力参与者的群体性“道德指责”,群体性网络信息传播导致了伤害结果,很难拆解为个体的侵权行为或者犯罪行为,结果往往是难以对所有网络暴力参与者的行为进行评价。网络暴力行为直接导致当事人的人格权益受损,造成网络信息秩序混乱。而网络暴力现象治理的追责困难会助长秩序混乱,同时根据传播学的“议程设置理论”和“沉默螺旋理论”,极易导致网络舆论场的“极化效应”,危害网络安全秩序,引发网络安全风险。
如何高效精准地回应数字时代高度复杂的公共问题,在不牺牲治理有效性的前提下实现尽快决策、尽早行动的网络暴力预防化治理,是目前面临的主要问题。对网络暴力干预的阶段越靠后,暴力行为依托于网络技术传播、叠加、积聚的指数递增后果就越恶劣,治理难度与成本就越高,甚至难以遏制恶性事件的发生。因此,应当在确立长效治理机制的同时,借鉴犯罪预防的思路,发挥网络服务提供者的技术优势和数据优势,将网络暴力的治理重点集中在事前预测与预防,事中阻断网络暴力发展链条。
为更好实现网络暴力预防性治理,需回应如下质疑:一是对象是否明确:网络暴力的概念及行为分类能否满足预防性治理的明确要求;二是边界是否清晰:网络暴力信息治理过程中如何充分保障舆论监督;三是措施是否适当:技术性措施实施的合法性基础以及比例原则的适用。以下将对此展开论述。
二、网络暴力场阻断模式的基础
借鉴犯罪预防的理念与思路,可以将发生网络暴力行为的网络空间类比于犯罪学的概念“犯罪场”,为控制网络暴力行为(犯罪)的发生提供新的治理思路。网络犯罪场是一种具体的犯罪场形,也是网络社会形成以后犯罪场的新形。网络暴力行为并不必然都会构成犯罪,但这并不妨碍我们借鉴犯罪场的理论思路来对网络暴力进行源头治理。潜在的犯罪人变成了潜在的施暴人,犯罪的背景条件变为了“施暴的背景条件”,此时犯罪场可以称为“网络暴力场”。网络暴力的治理可以转化为以潜在被害人为中心,破坏促进产生潜在施暴人因素的客观条件,防止网络表达向网络暴力转化或者阻断损害后果的进一步扩大。
(一)预防视角下网络暴力行为分级处置思路
阻断模式构建面临的首要问题是明确治理对象。既有研究通过风险社会、概念辨析、不同于传统暴力的突出特点分析、新型暴力模式等多角度来界定网络暴力的概念。《通知》将网络暴力定义为:网络暴力针对个人集中发布侮辱谩骂、造谣诽谤、侵犯隐私等违法信息及其他不友善信息,侵害他人合法权益,扰乱正常网络秩序。该定义中既包含网络暴力违法信息,也涵盖了不友善信息,范围较广,为满足治理的实际需要,应进行严格的分级。
同时,网络暴力现象的产生是一个复合性的问题,涉及到社会学、法学、伦理学、传播学、心理学等学科。网络暴力现象成因复杂,既有参与人复杂的主观动机,又有事件背后社会矛盾的原因。网络暴力行为的发展传播迅速,在网络“缺场社会”的特征加持下,网络暴力信息传播异常迅速,“谣言如瀑布倾泻一般流传开来”。网络暴力行为样态复杂,既有需要严厉打击的网络暴力犯罪行为,也有符合《治安管理处罚法》应予以行政处罚的网络暴力违法行为、侵犯他人名誉权等人格权的侵权行为,还包括位于治理灰色地带的网络暴力行为,如发表观点偏颇、言论偏激信息、针对某个个体的海量负面评价等不友善行为。
面对复杂的治理对象,预防性治理应首先摒弃“消除”网络暴力的目标,收缩至防止网络表达向网络暴力转化或者网络暴力危害后果的进一步扩大,构建针对不同类型、不同发展阶段、不同行为主体的网络暴力行为分级处置阻断模式,同时在治理实施过程中必须保障舆论监督的正常进行。
(二)犯罪场理论的引入
网络暴力行为发生在网络中,网络的场域特征与犯罪场的概念相似,网络暴力行为的预防可借鉴犯罪场预防理论。犯罪场是指“存在于潜在犯罪人体验中、促成犯罪原因实现为犯罪行为的特定背景。”基本构成为:潜在犯罪人(主观因素)+犯罪背景(时间因素、空间因素、被害人因素、社会控制疏漏)(客观因素),因此犯罪场是一个主体与客体、主观与客观相互结合作用的范畴。潜在犯罪人是指“社会免罪系统”未能滤过犯罪原因而形成犯罪意识的人,其在特定的犯罪背景条件的作用下就可能将犯罪心理转变为犯罪行为;时间、空间因素就是促进犯罪的可能的时空因素;被害人因素即指被害人自身具有的可能促进犯罪实施的因素;社会控制疏漏是指社会用以控制犯罪的机制出现漏洞,无法有效防止犯罪原因转化为犯罪行为的情况。
如果将网络暴力现场类比于犯罪场,可以发现,网络暴力场的功能包括信息反馈功能和行为促成功能。其中网络暴力行为人(潜在犯罪人)与网络信息空间(犯罪背景)之间通过信息的传递与反馈进行交互,客观的网络信息空间(犯罪背景)为网络暴力行为人传递有利于或者不利于施暴的信息,网络暴力行为人基于主观判断对信息做出反应,实施或者不实施网络暴力行为。网络信息是联系潜在网络暴力行为人的犯罪心理(主观)和犯罪行为及结果(客观)的中介,网络空间则成为了两者之间的调节器,通过网络空间信息的正负反馈来调节、控制网络暴力行为人的心理和行为之间的关系,使可能的施暴原因向着现实的施暴行为发展;网络空间将部分信息传递给网络暴力行为人后,直接促成施暴原因转化为现实施暴行为。从犯罪场理论的逻辑上看,控制犯罪系统中的任何一个环节都可能切断犯罪原因系统的因果链条而起到控制犯罪的作用,“从实践上看,离犯罪行为实施距离越远的环节越难以控制,所以在功利上说,犯罪控制就是控制犯罪场。”这也能说明控制网络暴力场是控制网络暴力最直接的方法。
通过网络暴力场视角研究网络暴力发生诱因与发展基本脉络对症下药,采取更具针对性与情境性的方案进行治理,治理的具体措施重点应集中在阻断“网络暴力场”的形成。将相对模糊的治理理念转变为一种真正具有可操作性的实践方案,在网络信息的快速更新中持续地追踪和分析那些重要的变化,并为适应这些变化不断调整治理手段及应对措施,尽最大可能减少事件对当事人的伤害,提升事件的治理效率。
(三)网络暴力场阻断理论的优势
网络暴力在技术的加持下往往呈现出隐蔽性强、传播速度快的特点,加之心理学上的“群体极化”效应,网络暴力的来袭总是如热带风暴一般,悄然形成,最终呈现出铺天盖地的局面。事前的预防与事中的干预可以在“网络风暴”出现苗头之时将其扼杀,或者是在其将要成型之时及时切断,避免受害人遭此厄难。因此,从最大化保护受害人的角度来看,此种治理逻辑具有明显优势。而此种治理逻辑必须结合技术展开,因为技术治理手段更加强调事前控制和行为预防,管理者通过行使隐而不显而又无处不在的单向监视权力,可以形成一种“全景敞视主义”的治理机制,对于实现网络暴力行为“防患于未然”的治理目标具有积极意义。
1.网络暴力场阻断是当事人保护主义的直接体现
当事人保护主义强调对当事人个人权利的保护,当事人保护主义的核心价值来源于基本的人权保障理念,旨在确保公众在网络空间中能自由地表达自己的观点而不受到恐吓与压迫。“所谓暴力,往往是通过力量上的优势地位,以一种强制性侵入的方式,干涉和控制他人的行为。”在任何一次网络暴力当中,遭受网暴的当事人与网暴者之间的力量往往悬殊,并在事实上遭受“压迫”。因此,从当事人保护主义要求的“确保当事人不受压迫”的角度理解,需要强化当事人自身的力量,来抵抗网暴者们可能的“压迫”。这种力量可以是通过法律进行震慑,也可以是通过技术直接赋予网暴当事人以主动进行事前防御的力量,以此来强化对当事人的保护。
2.网络暴力场阻断是企业克服负外部性的必然要求
科斯的社会成本理论指出,企业的经营活动可能对外部环境产生负面影响。而网络暴力的发生在一定程度上也是由于平台企业的经营活动所导致,比如平台企业以流量为目的对争议事件的推送等。那么平台同样有义务消除给外部环境带来的不利影响,事前的技术预防是其可以采取的措施之一。同时也能降低企业诉讼成本,利用技术对网络暴力进行事前预防,拦截网络暴力信息,可以节省大量成本,高效地维护自身的权益。
3.网络暴力场阻断是防范线上线下关联的最佳路径
网络暴力的成型以及危害是线上的虚拟空间与线下的现实空间的交互而最终促成的。观察网络暴力现象可以发现,网暴信息的传递必然会同时游走于虚拟与现实空间,而非仅仅停留在虚拟空间之中。在虚实结合的互联网空间中,当网暴信息牵涉到线下空间时,将会给当事人的生活、工作带来极大的困扰,历次的网暴事件也已经证明了这一危害。通过“网络公开信息”挖掘出身份信息在历次网暴事件中都普遍存在,网暴事件的当事人在现实生活中都存在有社会关系,网络暴力行为人可以在没有任何故意的情形下揭示出当事人的真实身份。当然还有一个重要原因在于,在数字空间当中,个人信息的碎片已经达到俯拾皆是的程度,轻易就能识别到具体的个人。因此一旦在互联网空间中深陷舆论的漩涡,真实身份必然会在网络中被人揭露出来。而网络暴力场阻断可以通过技术手段防范线上虚拟空间与线下现实空间的联系,使得网络暴力在呈现空间上保持虚拟化,最大限度地降低网络暴力对当事人的伤害。
三、网络暴力场阻断模式的展开
根据社会传染理论,兼具阶段演进、动态发展性质的网络暴力的形成并非一蹴而就,而是量变引起质变的集中体现,正如雪崩的形成离不开任何一片“纯良无害”的雪花。网络暴力场阻断的预防性治理应当遵循网络暴力阶段性发展的形成机制,衔接技术治理与法律治理,建立事前预防与事中治理模式,保持治理体系的动态发展,有效遏制网络暴力的扩张。需要特别强调的是,对风险管理而言,应采取渐进式的手段,以平衡自由与秩序的关系,但对当事人保护而言,则要提升技术预防的效果强度,要持续完善紧急防护功能,确保一键防护的周全性,记录暴力信息的完整传播链条,为可能的后续司法裁判提供事实依据,完成从事前预防、事中干预到事后追责的全链条治理。针对网络暴力构建一套完备的网暴分类处置与长效治理机制,以长效治理取代运动式治理。
网络暴力场的阻断模式构建应当贯彻分级治理理念,以被害人保护为目的,以切断网络信息反馈链条为手段,以平台的预防义务履行为路径。
(一)将技术逻辑纳入立法框架
互联网技术打破了传统社会的时空限制,使广大网民可以在任何时刻、任何地点获取自己想要的任何信息。在现实社会中,我们需要自己“亲身”经历在一定的时间与空间中,做任何事情都需要身体“在场”,那么时间、空间很容易限制我们的行为,比如某人难以在寒冷的冬夜,凌晨三四点时为了发泄自己的情绪而跑到一千公里之外攻击一个陌生人,但是这在互联网空间中却可以轻易做到,只需要打开手机进入某社交平台随便点开一个陌生人的账户对其发送私信,就可以达到目的。所以,互联网中的时间与空间的概念已经淡化,时间仅仅取决于现实空间中的施暴人是否“有时间”进入互联网,而空间更是一直以开放的形式面向所有的使用人。在这种时空环境中,人工干预难以实现,对网络暴力信息的监测、预警、处置等必须依靠信息技术来实现,因此,有必要将技术逻辑纳入立法框架。
网络暴力发生的空间是指各类能够公开自由表达言论的社交平台,换言之,社交平台就是网络暴力场语境下的“施暴场”的空间因素。空间因素可以为潜在的施暴人提供有利或者不利于“施暴”的信息,并进而促成施暴行为的发生。避免空间为潜在施暴人提供适宜施暴的信息,可以从空间的技术架构着手,用技术将空间打造成一个能够予以控制的场域,实现风险可预警、行为人可追踪、施暴行为可记录、侵害人可确认、证据可收集,使网络暴力行为人认识到“网络不是法外之地”,打消其“法不责众”的侥幸心理。
事前预防治理模式力图将网络暴力扼杀在摇篮中,最佳治理措施是将内容识别预警、网暴识别模型与涉网暴舆情应急响应机制相结合共同构建有效的网暴预警预防机制。在制止网络暴力方面,自然语言技术应用发展较为成熟,如采取对敏感信息进行过滤的敏感词过滤算法,实现对敏感信息的过滤,对不良信息类别的分级;根据识别语义中12种不同语义情绪,运用计算情绪浓度、提炼情感关键词的情感分析技术,自动实现对舆情信息的监控;通过创建网络暴力领域情感词典、脏话语料库,通过语义相似度进行定量计算,实现网络暴力特征识别等。
通过识别模型的构建,能够实现在不同场景要素(如网络暴力发展阶段、网络言论的类型、情绪浓度、受害人抵御能力的差异、点赞评论转发量、大V博主发声情况等)下预测网络暴力发展的进程,将舆情浓度监控与分级治理同步。平台可以根据网络暴力的发生阶段、危害性强弱、技术实力差异等因素采取差异化、自主化的符合自身平台特性的、事中技术性治理模式,遵循治理手段的严厉性与网络暴力行为危害性成正比、措施逐级强化的治理思路,采取从劝阻式干预到折叠干预再到删除信息、封禁账号等渐进式技术性防范措施。
(二)形成网络空间宽容氛围
网络暴力行为侵害网络安全秩序。秩序意指在自然进程和社会进程中都存在着某种程度的一致性、连续性和确定性。2013年,最高人民法院、最高人民检察院颁布的《关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释》承认了网络空间具有独立的空间属性和秩序属性。这既源自网络的信息属性和技术属性,更是网络与现实空间深度融合的背景之于网络的映照。只要网络的深度社会化进程还在继续,网络空间的意识形属性就必然逐步加强,而维护网络空间秩序,根本上是为了维护网络用户的知情权利,这也是网络信息型犯罪的法益目的。2022年中央网信办发布的《通知》也明确指出网络暴力是扰乱正常网络秩序的行为。
网络暴力现象从某种角度来说是我国网络言论自由的衍生品。言论自由的目的性价值在于公民的言论自由本身,网络应是提供给公民自由表达思想的空间,即便其中可能有些过激的言论,亦不应过多限制他人的言论。网络暴力事件频发表明目前的网络空间社会宽容氛围严重缺失。社会宽容是指网络社会中的个人或群体即使具有必要的权力和知识,也不对自己不赞成的网络言论或行为进行干涉和妨碍。社会宽容与人群的年龄结构、学历结构、收入结构有关。一旦社会宽容缺乏,极易导致参与其中的网民产生偏执、极端、激进的心态。从心理学的角度描述,将网络暴力的发生认定为是一种“乌合之众的集体无意识”——网络群体化的环境中,个体往往容易盲目随从群体话语,最终汇聚成狂热的集体兴奋。这种集体兴奋最后变成网民的情绪宣泄和网络狂欢,对弱势群体或者异质群体实施欺凌和歧视。这种群体性的特征一方面会加剧行为人的“集体无意识”倾向,体现为个体对群体的盲从;另一方面又会为广大群体中的个体提供逃避责任的保护伞,加重行为人“集体无责任”心理。
因此,平台应当在文化层面上营造契合自身特点的社区氛围。强化平台对用户的关怀义务,直接启动平台的熔断机制甚至跨平台的熔断机制,对被害人进行终局保护。文化架构就是要求社交平台营造良好的舆论环境,通过制定“社群自治规范”,对网民的评论内容进行奖惩,抵制唯流量的价值观,要以互动内容的优、精为导向,形成一种一旦出现侵犯性的评论时会自觉遭到他人抵制的舆论氛围。
四、网络暴力场阻断中的平台责任
在网络暴力的法治化治理体系中,需要将理论层面的宏观治理构想落实到现实层面的微观治理路径,技术性防范应当遵循技术治理的基本逻辑,而技术治理体现的是一种效率逻辑,强调治理的高效率、低成本。事后型法律规制叠加网络暴力场阻断的预防性治理,从直接治理转向基于平台的间接治理,从单一技术治理转向分层技术治理,有助于真正实现以最低的治理成本遏制网络暴力的发生。
(一)平台采取精准化技术预防措施的理据
由于网络空间发言的低门槛性、匿名化以及平台治理无序性的技术催化,导致网络暴力现象愈演愈烈,肆意主导社会舆论失范,其中平台对于网络暴力的扩散、爆发发挥着关键“载体”作用。基于平台负有防范网络暴力的作为义务、负有承担社会责任的治理职能、显著的技术优势与数据优势,平台采取精准化技术性预防措施具有充分的理据。
中央网信办印发的《通知》明确提出,平台负有概括性、总体性的网络暴力控制义务,通过“建立健全网暴预警预防机制”“强化网暴当事人保护”“严防网暴信息传播扩散”“问责处罚失职失责的网站平台”进一步压实网站平台的主体责任、完善网暴问题治理的长效机制。概括性的网络暴力控制义务全面覆盖了内容管理义务、用户管理义务、安全管理义务以及刑事预防义务,相关法律法规明确规定了以上具体性、专门性的平台义务,为平台采取精准化技术性防范提供了合法性依据。
从应然层面来看,网络技术的风险特性是催生网络暴力的潜在根源,网络空间提供了主体多元的舆论场域,并强化了网络受众的风险感知度,网络技术的控制者指向了网络平台。传统政府直接管理公民的规制机制难以直接移植到网络空间,单纯依靠政府监管难以直接深入到技术性防控层面。因此,平台发挥主观能动性以实现预防式治理是推进网络空间治理的必然要求,事前预防治理与事中干预治理必须以平台为中心。
从实然层面来看,平台天然具有吸引用户、追逐利润的特性,意味着平台具有运用热点事件推波助澜实现引流、逃脱监管责任的异化动机。检视大量网络暴力现象,可以说,没有利用网络媒体平台的煽动性,网络暴力的群体性和欺凌性就难以形成,更不用说引发严重后果。网络暴力形成的原因多元且有差异,在网络暴力形成过程中,发布信息的主体、对该主体发布的信息进行点赞、评论、转发的主体之间的贡献均存在差异,难以通过个体性劝导矫正道德缺失、直接实现对受害人的积极保护。因此,从用户治理转向平台治理是强化平台社会责任、高效便捷贯彻法治治理的应有之义,网络暴力的技术治理需要遵循政府监管—平台自律的导向。
总体而言,我国相关法律规范已然呈现出强化监管平台治理网络暴力义务之倾向,为平台设立起全方位、多层次、层层递进的积极防范义务。针对平台的刑事预防义务,管理危险源是网络服务提供者的实质作为义务发生根据,也是其不作为成立具体言论型犯罪等不真正不作为犯的基础。即使平台提供网络服务属于日常性行为,但是在当下我国刑法将拒不履行信息网络安全管理行为纳入刑法调控的立法背景下,平台以“中性帮助行为”之抗辩主张难以成立。《意见》第6条进一步重申了网络服务提供者的刑事责任,“依法惩治拒不履行信息网络安全管理义务行为。网络服务提供者对于所发现的有关网络暴力违法犯罪的信息不依法履行信息网络安全管理义务,经监管部门责令采取改正措施而拒不改正,致使违法信息大量传播或者有其他严重情节,符合刑法第二百八十六条之一规定的,以拒不履行信息网络安全管理义务罪定罪处罚;依照刑法和司法解释规定,同时构成其他犯罪的,依照处罚较重的规定定罪处罚。”《互联网信息服务管理办法(征求意见稿)》第21条同样明确规定,互联网服务提供者应当“采取技术措施和其他必要措施,防范、发现、制止所提供的服务被用于实施违法犯罪”,即平台针对用户实施网络违法犯罪的主动控制义务。
平台治理网络暴力具有显著的技术先发优势,具有及时性、有效性,能够最大限度在网络暴力发生之前将其压制。目前国内外平台对于技术防范治理都做出了积极尝试,例如推出言论提醒和自主选黑粉功能,多场景预防网络暴力的风险评论警示、设置评论权限、关键词屏蔽、评论精选、“心情暖宝宝”对话等功能,通过算法机器人识别处理阴阳怪气、答非所问等多种需要被折叠的答案等。
(二)落实网络实名制是司法裁判界定平台责任的重点
网络暴力信息案件中如何确定施暴人的真实身份是首要问题,也是后续司法程序的起点。对于互联网信息服务提供者未能有效落实网络账号实名制要求,不能提供涉嫌侵权的网络用户实名信息,导致受害人最终无法找到实际侵权人的,互联网信息服务提供者是否尽到了作为网络服务提供者的义务,是否存在过错,是否应承担责任,应当是司法审判中界定平台责任的重点。
法律已明确网络实名制权责。《互联网用户账号名称管理规定》指出,互联网信息服务提供者应当按照“后台实名、前台自愿”的原则,要求互联网信息服务使用者通过真实身份信息认证后注册账号。《网络安全法》正式实施,以法律的形式对“网络实名制”作出规定。《互联网用户账号信息管理规定》明确互联网信息服务提供者应当建立账号信息动态核验制度,适时核验存量账号信息,发现不符合本规定要求的,应当暂停提供服务并通知用户限期改正;拒不改正的,应当终止提供服务。《反电信网络诈骗法》第22条规定了对涉诈账户重新核验的义务,第24条规定了域名真实性核验义务。中央网信办颁布的《互联网跟帖评论服务管理规定》第8条规定了用户分级管理义务。
具体而言,平台对实名制的落实,应内嵌在业务全流程中进行。一是从用户增量上,依法收集用户真实身份信息,并在最小必要原则下做好用户个人信息保护。二是从用户存量上,依法开展真实身份动态核验,持续清存来自“暗处”的风险。平台可结合业务场景进行设计,比如既可以从正向上为实名用户提供有关服务功能,将提高用户体验、粘性与落实实名制相结合,也可以逐渐限制面向非实名用户的服务内容。
(三)避风港原则在网络暴力治理中的改良适用
除由网络服务提供者发起、组织的网络暴力行为外,网络服务提供者并非网络暴力行为的行为人,同时,网络服务提供者也不是网络暴力治理的应然主体,而应当定位为网络监管职能部门的辅助,因此平台预防网络暴力的义务性质应当被明确为协助义务。对于该项义务履行的程序性设计,可参照适用避风港原则。
避风港原则最早来自美国1998年《千禧年数字版权法》(DMCA
法案),这一法律原则在网络发展初期被国际通用,避风港原则核心是“通知—移除”,简单说,就是网络服务商在接到被侵权者的通知后,应及时采取移除或断开连接等措施,这样就可以免于承担法律侵权责任。否则,即被视为侵权并承担相应法律责任。我国对于避风港原则的吸收和立法,最早体现在《信息网络传播权保护条例》中规定了信息储存空间服务、提供搜索、链接服务、提供自动接入或自动传输服务与提供自动缓存服务四类网络服务提供者及其对应的免责规则。随着实践的发展,越来越多的平台被纳入了该原则的“通知—删除”义务之下,《民法典》第1194—1197条对避风港原则进行了重大修改和完善,规定了两种责任主体即侵害他人民事权益的网络用户与网络服务提供者。权利人可以通知网络服务提供者采取删除、屏蔽、断开链接等必要措施处理网络用户的侵权内容,网络服务提供者应当转送通知给网络用户,网络用户也可以通过网络服务提供者向权利人提交不存在侵权行为的声明。传达网络用户的反通知后,网络服务提供者还负有提醒权利人可以向有关部门投诉或者向人民法院起诉的告知义务,同时还负有在合理期限内终止所采取措施的义务,从而避免权利人滥用“通知”权利。根据该规定,“采取删除、屏蔽、断开链接等必要措施”成为网络服务提供者的责任“避风港”。
如前文所述,网络暴力行为样态复杂,除需要严厉打击的网络暴力犯罪行为和符合治安管理处罚法应予以行政处罚的网络暴力违法行为外,尚有侵犯他人名誉权等人格权的侵权行为以及位于治理灰色地带的网络暴力行为,例如,不知情的网络水军传播网络暴力信息,通常仅涉嫌侵权而不构成犯罪。同时对于网络暴力,权利行使可作为一项重要的出罪事由,无论是基于维护公共利益还是个人利益的权利行使,都可能阻却犯罪成立。对于该类行为,平台难以在事前事中明确对该类信息有效识别标准,可能造成平台过度介入网络空间的表达自由,缺乏实质正当性。而避风港原则中的“通知”规则设定可以成为触发该项技术措施的逻辑起点。对于网络暴力行为中的侵权行为和不友善行为应优先适用“通知-删除”规则,对于违法犯罪类网络暴力信息或者侵权与不友善行为已具有较大的社会危害性(例如达到一定的量级)时,则应通过对红旗原则的适用以及自审核义务的设定来实现精准预防。
1.“通知”方式的设定
“通知—删除”规则是遭受网络暴力的当事人参与网络暴力场约束秩序建设、对具体的侵权行为施以阻断的重要途径。该途径的核心功能是尽可能满足当事人差异化的维权诉求,使其合理的维权意志能够反映到对网络暴力言论的阻断方式、阻断速度、阻断强度乃至阻断结果当中。起源于知识产权保护的“通知—删除”规则,在规制网络暴力的场景下更大程度上表现为“通知—阻断”。
为满足被侵权人在通知发出后对网络暴力场的干预阻断效果,平台对通知方式的设定要满足如下要求:其一是干预反馈的迅捷性。网络暴力事件往往“起于青萍之末”,介入时点越靠前,阻断效果便越到位、总体阻断成本便更低。这要求平台充分认识任由网络暴力场发酵扩张的负外部性,并将其内化为必要的业务成本,提升处理用户干预请求的反馈优先级,优化审核流程、缩短应答周期。其二是功能模块的丰富性。网络用户是自身形象管理、行为影响力管理的“理性人”,对聚拢在自身周围的潜在网络暴力场具有或多或少的认知,对如何预防、处置网络空间中的不友善信息具有因人而异的需求,对通知发出后面临“反通知”的可能性具有不同的判断。从这个意义上讲,“通知—阻断”是用户与平台之间共同开展互联网内容生态治理及犯罪预防的合作机制,与其配套的“反通知”规则是不同用户之间共建数字文明内容生态的商谈机制,这便要求平台将用户主体合理的差异化需求,融嵌在平台丰富的阻断功能模块当中,将“一键防暴”与“多手段防暴”相结合,积极开发调适业务场景。其三是全周期响应的完整性。网络暴力具有较为独特而模糊的发生机制,可预测性较低,且不同用户对网络暴力由量变到质变的感知体验亦有差异。对此,平台应当建立覆盖针对网络暴力治理全周期的响应机制,适度引入自动决策机制,为用户在网络暴力场滋长的全程随时提起“通知—阻断”提供支撑。
2.比例原则下对责任主体及阻断手段的收敛
在平台企业这一网络空间的基础设施支撑下,个体扩散信息的能力显著增强且并无直接的约束机制,但网络服务提供者的基础设施角色功能及责任承担能力差异极大,呈现层级分化现象,理应通过比例原则对主体责任类型及手段强度要求进行克制。以云计算平台为例,从网络服务提供者的类型上看,云计算服务提供者一定程度已经超出了传统避风港原则的制度设计范畴,无法仅根据权利人“通知”即准确定位、接触、查证被控信息,其能力供给型业务属性的“底层性”,也决定了其若想对“网络施暴场”进行阻断,所需要采取手段的有效性往往以“关停服务器”“强行删除服务器数据”等为代价,影响波及较广,显然会为云计算服务提供者带来不必要的损失,影响建构在云设施之上的数据及其他网络业务。由此观之,对阻断手段而言,应当在比例原则的指导下,根据不同平台的业务类型、技术架构以及业务实现水平及实际承受能力,设置渐进式的干预工具,依据阻断强度从弱到强,平台可设置向可能侵权人发送修改或删除的劝阻提醒、对涉网暴信息进行打标提示、压缩信息传播范围或作折叠处理,直至删除信息、将发表网暴言论计入用户的行为规范性评价、封禁账号等选项。
3.红旗原则下对平台“中立性”立场的校正
在《千禧年数字版权法》中,红旗原则是作为避风港原则的适用例外,避免主体滥用避风港原则而造成权利人的利益大范围受损而存在。时至今日,避风港原则已经从以知识产权保护为中心,扩展至网络侵权责任之调整全内容,其在《信息网络传播权保护条例》《电子商务法》《民法典》当中均有体现。红旗原则是指如果侵权事实像红旗一样显而易见,技术提供者就不能装作看不见,或以不知道为理由推脱责任。在侵权者恶意侵权的情形,若平台只是表面上配合权利人,收到通知后马上删除侵权内容,但随后侵权内容又在平台中反复存在,由于多次通知,平台的注意义务将发生改变,“通知—删除”的原则就变成了红旗原则,平台则必须采取进一步措施防止侵权发生。《民法典》第1197条规定了当网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施,与该网络用户承担连带责任,这是“红旗原则”的体现。更进一步讲,当网络平台充当不法行为人集中宣泄仇恨、组织煽动网络暴力的场所时,如果网络平台仍然恪守所谓平台中立的不干预原则,则显然违反了立法精神和法治原则。对此,立法应当明确适用“红旗原则”的“知道或者应当知道”要件,使“红旗原则”成为保护数字时代公民人身财产权益及网络空间秩序利益的“重要防线”。
4.平台对网络暴力信息的自审核义务
与红旗原则相对应,在上述“删除”措施与“转通知”措施之外,还应当为一些信息网络服务提供者设置更加严格的“自审核”义务,也就是对一些自我管控平台发布内容的网络服务提供者而言,因为其有责任也有能力控制平台发布的消息内容,因此审核该内容是否构成本文所指四类网络暴力信息应当成为其自身的义务。“自供应内容的服务提供者”,或称“纯粹的内容提供者”,并没有纳入一般的“通知—删除”范围之内。显然,根据义务与权限相一致的原则与标准,为自供应内容的服务提供者设定自审核义务是合理的。另一种情况是,在红旗原则之下,本身只负有“通知—删除”义务的网络服务提供者若遇到网络暴力信息发布行为如“红旗飘飘”显而易见的情况下,该网络服务提供者对这些网络暴力信息以及相关行为主体所负义务也应提升至自审核义务。这两种情况,前者是建立在该网络服务提供者的服务类型属于网络内容提供者之上,这种直接的信息提供服务使得其应该当然地负有自审核义务;后者是建立在避风港原则的例外情况——红旗原则的基础之上,网络服务提供者在不得不面对红旗原则为其施加的义务时,其对网络暴力信息所负的“通知-删除”义务将会转变成主动审核义务,以此来主动消除网络暴力信息。
余 论
技术性防范是一把双刃剑,网络暴力治理应当遵循法律治理与技术治理相结合的二元良性共治模式的理念,不能忽视法律规范对技术治理的规范作用和技术治理对法律治理可能造成的消极影响。网络暴力技术性防范之下存在两大问题亟须解决:一是治理网络暴力与保障言论自由之间的关系;二是技术性防范的法律监管问题。
在网络空间中必须肯定公民在合理限度内通过网络空间抒发负面情绪的正当性,平台不得以承担行政监管职能为由,动辄否定公民的言论自由。同时,治理网络暴力必须依靠言论自由并最终突破言论自由,网络言论自由不能成为网暴的保护伞,当网络暴力逐渐形成并且已经足以给他人的生命健康造成威胁时,言论自由就不得不受到限制。网络暴力的治理目标不应定位于网络暴力行为的“消除”,应当转化为以潜在被害人保护为中心,防止网络表达向网络暴力转化或者阻断损害后果的进一步扩大。技术性防范何时干预、何种程度干预网络暴力的形成取决于个案情形,更取决于技术本身的精准化程度。
“上医治未病”,阻断网暴信息传播,有效预防可能形成的现实危害后果,通过加强技术性预防与干预,实现对网络暴力的源头治理。需要转换治理理念,同时考量并平衡自由与秩序,完成从被动应对到主动维护、从事后追责到事前防范、从静态监管到动态管控的治理转型,最终实现打造清朗网络空间、构建良好网络秩序的目标。
(原文刊载于《政法论坛》2024年第3期)
《数字法治》专题由上海市法学会数字法学研究会特约供稿,专题统筹:秦前松。