韩旭至 华东政法大学法律学院副教授,法学博士
-
本文来源于《华东政法大学学报》2023年第1期,系2020年度国家社科基金重大项目“数字社会的法律治理体系与立法变革研究”的阶段性研究成果。
数字化不等于美好生活。必须正视拒绝权的价值,允许个人拒绝特定的数字化应用或其结果。数字社会的个人拒绝权具有丰富的制度资源,根据权利来源、表现形式、规范属性的不同标准,可以分为不同类型。这些拒绝权均有派生性、非支配性、包容性和场景性的核心特征。在数字社会中,数据与信息成了重要的生产要素,形成了“公权力—私权力—私权利”的三元博弈结构。数字社会的个人拒绝权是数字社会行为规律的客观需要,是技术伦理升级的基本要求,是数字人权保护的题中应有之义。值得注意的是,拒绝权不等于拒绝数字化。个人拒绝权的对象限于违法的数据处理以及其他法定的特殊情形,个人拒绝权的对应义务应从数字政务服务的选择、数据处理的告知、数字产品的设计以及数字素养的提升四个方面进行重塑,并且,个人拒绝权的具体适用应在法定条件下进行利益衡量。
一、问题的提出
数字社会的个人拒绝权指,个人对特定数字化应用或其结果享有抵制的权利,包括已存在国内外相关制度中的个人信息删除权、“被遗忘权”、自动化决策拒绝权、“离线权”(right to disconnect)等。这些拒绝权的共性在于,旨在回应“从摇篮到坟墓”的数字化覆盖中,个人越来越难以拒绝的问题。
当前,数字化正以一种无法抗拒的方式袭来,必须清晰地认识到数字化不等于美好生活,切不可“为了数字化而数字化”。信息化处理、数字化监控、自动化决策、智能化管理中的问题已经为学界广泛讨论。与“不得不同意”的“同意困境”对应,“无法拒绝”的“拒绝困境”亦客观存在。有时,即便存在拒绝的制度依据,个人也难以实现拒绝权。例如,根据《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》(法释〔2021〕15号)第10条,个人有权拒绝物业服务企业将人脸识别作为“出入物业服务区域的唯一验证方式”。然而,随着“数字哨兵”与“场所码”应用的强制推广,个人实际上不仅无法反对人脸识别,而且难以控制信息处理者进一步的信息处理行为。“河南储户红码事件”更是直接揭示了个人在数字治理中缺乏必要的自主性与控制力。对此,必须认真对待数字社会的个人拒绝权,防止其沦为一项“空洞的承诺”。
数字社会的个人拒绝权是一项崭新的课题。部分学者从行政法角度对传统的公民拒绝权进行了理论探究。这些研究虽不涉及数字社会的议题,但揭示了拒绝权具有抵抗不合法或不合理权力安排的基本属性。近年来,数字政府、算法行政与数字公民进一步成为研究热点。然而,一方面,未见数字公民拒绝权的专门研究,另一方面,数字公民拒绝权只是个人拒绝权的重要组成部分。在个人信息保护领域的论著中,从私法视角对特定拒绝权的研究并不少见。更有学者从社会学、传播学的角度对数字社会中的个人拒绝进行了初步探究。然而,这些成果均未能将数字社会的个人拒绝权作为一个整体进行探究,既无法揭示拒绝权的制度逻辑,亦未能全面回应“拒绝困境”。
数字社会的个人拒绝权并不仅仅针对国家权力,而是针对新兴的数字权力,呈现出公法与私法双重属性。其义务主体为数字权力的行使者,既可能是公权力机关,亦可能是私主体。在全方位的数字化覆盖中,个人拒绝权涉及多种制度的调整、多元主体的配合、多方利益的平衡,具有一定的复杂性。对此,本文将在工商社会的现代性法治向数字法治的转型背景下,对个人拒绝权展开研究。首先,个人拒绝权是一个集合概念,各种拒绝权制度共同构成一个有机联系的体系,必须在整体上研究其制度形态。其次,从个人拒绝权的理论逻辑展开,可进一步分析个人拒绝权作为应有权利的现实必要性。最后,这种应有权利需要回到具体的制度框架之中,以探寻适当的实现路径。
二、数字社会中个人拒绝权的制度形态
数字社会的个人拒绝权具有丰富的制度资源,根据权利来源、表现形式、规范属性的不同标准,可以分为不同类型。这些个人拒绝权均有派生性、非支配性、包容性、场景性的核心特征。
(一)数字社会中个人拒绝权的基本类型
第一,根据权利来源,数字社会的个人拒绝权可以分为数字权利派生的拒绝权以及传统权利派生的拒绝权。数字权利派生的拒绝权指向个人信息处理的拒绝权。在数字权利中,《个人信息保护法》具有基础性地位,形成了独特的拒绝权体系。我国《个人信息保护法》通过第24条第3款、第27条、第47条分别规定了自动化决策拒绝权、公开信息处理的拒绝权、删除权。其中,《个人信息保护法》第24条所规定的自动化决策拒绝权是应对数字社会智能算法最为重要的拒绝权,并与保证决策透明度和结果公平、公正的要求紧密相关。自动化决策拒绝权能有效回应“算法歧视”“大数据杀熟”等问题。例如,在“胡某诉携程案”中,胡某发现通过“携程旅行”App预订酒店价格显著高于实际挂牌价格后起诉,法院不仅认定携程公司存在虚假宣传和价格欺诈,而且指出该App应增加用户拒绝相关信息处理的选项。另外,“离线权”是最为典型的由传统权利派生的拒绝权。由劳动者权利保护出发,部分欧洲国家提出“离线权”,赋予劳动者在非工作时间可以拒绝工作,不使用电子邮件等与工作相关的电子通信的权利。2017年法国在修订《劳动法典》时首次在国家立法层面引入“离线权”。该法第L. 2242-17条规定,劳动者有权通过与雇主达成协议或由雇主通过章程,充分保障劳动者行使离线权的方式,“以确保尊重休息和休假时间以及个人和家庭生活”。随后,意大利、英国、西班牙等国家均在立法中引入了“离线权”。
第二,根据表现形式,数字社会的个人拒绝权可以分为形式意义上的拒绝权以及实质意义上的拒绝权。拒绝是实现控制的一种重要方式,权利人表示反对的形式多样。部分个人拒绝权并不必然以拒绝为名,却实际具有拒绝功能,构成实质意义上的拒绝权。上文的“离线权”即是一例。又如,在个人信息保护制度中,信息主体也可通过撤回同意表示拒绝。我国《个人信息保护法》第15条明确规定,个人有权撤回同意。此外,删除权与“被遗忘权”也属于数字社会的个人拒绝权。2014年欧洲法院在著名的“谷歌诉西班牙数据保护局案”中指出,经过一定时间后,“数据处理可能变为不恰当的、不相干的、不再相关的,或超出其最初处理目的”,此时个人有权要求删除。欧盟《通用数据保护条例》(GDPR)第17条即题为“删除权(被遗忘权)”。在我国,删除权为《民法典》第1037条第2款所规定,《个人信息保护法》第47条围绕目的限制、最小必要、告知同意、合法处理的基本原则进一步明确了删除权行使的五类情形。其中,“为实现处理目的不再必要”可请求删除的规定与GDPR第17条第1款第a项高度一致,理论上可推导出“被遗忘权”的内涵。一般认为,“被遗忘权”不仅蕴含在个人保护制度之中,而且与刑事司法中“重新开始的权利”有关,前科消灭制度和追诉时效制度被认为是“被遗忘权”的历史渊源与道德根据。在数字权利保护中,个人可依删除权或“被遗忘权”拒绝信息处理。
第三,根据规范属性,数字社会的个人拒绝权可以分为存在法律明确规定的拒绝权以及根据法律推定的拒绝权。又根据新型权利与新兴权利的区分,前者可称为新型拒绝权,后者可称为新兴拒绝权。部分未定型的新兴拒绝权可以通过法律逻辑推导的方式进行论证。例如,我国立法虽然并未明确规定“离线权”,但可从劳动者拒绝权中推导出“离线”的内涵。根据《劳动法》第56条第2款、《安全生产法》第54条第1款、《职业病防治法》第33条第3款规定,劳动者有权拒绝违章指挥、强令冒险作业,有权拒绝从事存在职业病危害的作业。数字技术使得随时随地工作成为可能,工作边界与生活边界的划分变得模糊,工作常态也可能变为24小时在线、随时待命。利用数字技术作出超出法定工作时长的安排,不仅属于违章指挥,而且有损劳动者身心健康,劳动者依法可以拒绝。此外,我国通过算法规制更进一步落实了数字时代劳动者的权益保障,《互联网信息服务算法推荐管理规定》第20条指出,服务提供者应完善工作调度算法以“保护劳动者取得劳动报酬、休息休假等合法权益”。由此亦可推导出“离线”的权利。
(二)数字社会中个人拒绝权的核心特征
第一,派生性是拒绝权的首要属性,无论何种拒绝权均由特定权利派生。由此,上文亦以所对应权利的不同对个人拒绝权进行了分类。进一步分析可知,个人信息处理的拒绝权体系均派生自《个人信息保护法》第44条规定的知情权、决定权。知情是拒绝的前提,拒绝本身又是决定权的行使方式。该条指出,个人“有权限制或者拒绝他人对其个人信息进行处理”。在此基础上,针对具体的信息处理场景,最终形成了个人信息处理的拒绝权体系。此外,“离线权”派生自劳动者基本权利。2020年欧洲联合工会对“离线权”表示支持并指出,针对工作时间和个人时间模糊的风险,“雇主有责任确保工人的安全和健康”。2021年欧洲议会进一步提出,通过数字技术形成的“永远连接”“永远在线”“随叫随到”的文化,将对包括公平报酬、工作时间限制、身心健康、工作安全、男女平等等劳动者基本权利产生不利影响。在疫情期间居家办公的状态下,“离线权”更是尤为重要。由此可见,数字社会的个人拒绝权属于一种为了实现更高价值的“工具性权利”。
第二,非支配性意味着权利人无法通过行使拒绝权直接支配/改变他人的行为。拒绝权的行使往往需要义务人的配合。根据《个人信息保护法》第50条,个人行使个人信息处理的拒绝权需要向信息处理者申请,个人信息处理者应建立便捷的申请受理和处理机制。值得注意的是,拒绝权虽然不具备直接支配性,但并不可简单归入请求权之列。这是因为拒绝权的行使可直接使得法律关系发生变动,产生类似形成权的效果。例如,公开信息处理的拒绝权行使将使得原合法的数据处理失去合法性基础。《个人信息保护法》第13条第1款第6项将依法在合理范围内处理个人自行公开或合法公开的信息作为个人信息处理的合法性基础。然而,个人信息保护逻辑与隐私不同,并不以信息隐匿/公开为判断要件,只要具有可识别性,公开的信息也是受法律保护的个人信息,个人当然有权拒绝相关个人信息处理。对此,《个人信息保护法》第27条明确采取了一般情况下的“选择—退出”(Opt-out)+对个人权益有重大影响时的“选择—进入”(Opt-in)模式,将“个人明确拒绝”规定为合法处理公开个人信息的例外情形,并规定在信息处理对个人权益有重大影响时,应依法取得个人同意。实际上,《个人信息保护法》通过前,该种拒绝权已为司法实践所认可。例如,在“‘校友录’头像被爬案”中,百度公司因爬取“校友录”用户的头像证件照,在收到用户拒绝的通知后未进行处理,被法院认定构成侵害个人信息权益。综上,个人拒绝权并非一种纯粹的私法权利,无法直接从请求权/形成权的角度解读,而是一种非支配性的“防御性权利”。
第三,包容性指向权利属性、保护权益与权利内容三个方面。首先,个人拒绝权既包括公法权利亦包括私法权利。例如,在个人信息保护的权利体系中,我国采取了统一立法的个人信息保护模式,并没有对公共部门与私人部门的个人信息处理者进行区分。个人信息处理的拒绝权体系兼具公法与私法双重属性。个人不仅可以通过拒绝权依法拒绝公权力的信息处理行为,亦可以作为一种民事权利对私主体主张。其次,数字社会的个人拒绝权保护权益多种多样。自动化决策拒绝权中所关注的“对个人权益有重大影响”,即指向所有法律上的权益。最后,数字社会的个人拒绝权的内容也在不断发展。新兴的“离线权”体现了人们对无处不在互联网线上连接的不安以及断开连接的愿望。由此出发,可进一步探知其他权利派生的个人拒绝权。对于利用数字技术不恰当地限制或减损个人权利时,个人就有权拒绝。也就是说,个人拒绝权的目标在于使相应的权利恢复到使用数字技术之前的应有状态。例如,在消费者权益保护上,消费者有拒绝经营者发送商业性信息、反对个性化推送与差别待遇的权利,这些数字经济中的新型拒绝权也是传统消费者权益保护的必然要求。
第四,场景性指各种具体的个人拒绝权制度对应不同的具体场景。结合《个人信息保护法》第4条第2款可知,个人信息处理的拒绝权体系仅可在个人信息的收集、存储、使用、加工、传输、提供、公开、删除等个人信息处理活动中使用。脱离个人信息处理的场景,就不存在《个人信息保护法》上的权利。每项个人信息处理的拒绝权均针对一类特定的信息处理场景。自动化决策拒绝权更是进一步区分了两类具体场景。根据《个人信息保护法》第24条,在通过自动化决策方式进行信息推送、商业营销的场景中,个人可直接行使拒绝权;但在其他场景中,个人有权拒绝的范围限于仅通过自动化决策的方式作出对个人权益有重大影响的决定。由此可见,个人拒绝权在“全数据生命周期”的场景化规制中得以实现。
三、数字社会中个人拒绝权的理论逻辑
在数字社会中,数据与信息成为重要的生产要素,形成“公权力—私权力—私权利”的三元博弈结构。数字社会的个人拒绝权是数字社会行为规律的客观需要,是技术伦理升级的基本要求,是数字人权保护的题中应有之义。
(一)数字社会行为的客观需要
数字社会行为以数据、信息为核心,必须通过拒绝权实现自主决定是数字社会中个人拒绝权的逻辑锚点。在工商社会向数字社会转型的背景下,一个与物理世界(世界1)、精神世界(世界2)独立平行的数据世界(世界3)已经形成。数据与信息兼具个体性、公共性与社会性,是重要的生产要素。在法律属性上,数据与信息成为新型财产权与人格权的客体。随着智能算法的应用,更是广泛形成了利用数据与信息进行生产并实现规训的行为模式,最终“迎来了‘一个由算法定义的世界’,进而形成了算法主导的社会秩序”。例如,在经济活动中,企业在对用户数据进行分析后,将相关结果用于定向营销,实现数据要素向利润的转化,这一生产过程即被称为“监视资本主义”。由此,可从监控与算法两个方面探讨个人拒绝权的时代背景与理论逻辑。
萨多夫斯基(Jathan Sadowski)指出,智能技术的背后是监控与控制。数字化监控已广泛运用于教育、商业、就业、执法等各个领域。2018年,浙江部分中学就将人脸识别与情感计算引入“智慧课堂”,通过摄像头监控学生的情绪和行为。2019年,南京部分环卫工人被要求上班期间佩戴智能手环,只要在原地停留超过20分钟,手环就会发出“加油”的语音提示。这些事件均表明难以拒绝的智能监控严重危及以隐私权与个人信息保护为代表的数字权利。欧盟基本权利机构亦认为,无处不在的智能监控不利于言论自由、集会自由、结社自由以及行动自由的保护。正是在这一背景下,《个人信息保护法》针对个人信息处理行为构建了拒绝权体系。
在智能算法与评分机制的作用下,数据与信息利用的深度与广度更是大为拓展,人成了技术处理的对象。拒绝特定自动化决策算法的重要性日益显著。近年来,外卖骑手被“困在系统里”的问题引发广泛关注,由于难以拒绝算法评分,骑手只能不断不合理地加快送餐速度。域外更有通过算法判定员工“不敬业、效率低下”的事例。算法决策不仅将对劳动者权利保障形成挑战,而且产生了“信息茧房”“算法歧视”等众多问题。桑斯坦(Cass R. Sunstein)开创性地指出,由于用户自我选择与算法推荐,用户更容易接收到自己喜欢的信息,从而陷入亲手编织的“茧房”,导致信息窄化与群体极化的后果。同时,即便是外观中立的算法,亦可能导致歧视性后果。虽然,2016年美国“威斯康星州诉卢米斯案”中,威斯康星州最高法院最终认定COMPAS系统的算法具有中立性和客观性,却无法解决评价因素中可能存在的“系统性歧视”的问题。
整体而言,数据与信息的转型催生了自然人向“信息人”的转变。一方面,通过“用户画像”,服务提供者能结合用户的“数字足迹”,整合使用过程中所产生的零星数据,形成“聚合效应”,拼凑出完整的“信息人”身份。另一方面,数字社会的生活样态是“虚实同构”的,物理空间不断向虚拟空间拓展和延伸,亦使得人具有了“生物-信息”的双重面向。在数字世界中,“行为的实施以及所产生的后果早已超越了生物人所能达到的程度”,由此形成了“数字人格”。然而,数字人格不等于数字公民。公民的权利和义务仍未充分拓展至数字领域。数字人格成了数字控制的对象,并形成了信息处理者的新型权力。对此,个人拒绝权通过保存个人对数字人格的控制以实现自主决定,是对抗数字霸权、捍卫人性尊严的重要工具。
(二)技术伦理升级的基本要求
数字社会的个人拒绝权是技术伦理升级的基本要求。在传统的技术伦理中,“数字包容”是应对“数字鸿沟”“数字难民”“数字贫困”“数字弱势群体”问题的解决方案,强调“确保所有人都有平等的机会和适当的技能,从广泛数字技术和系统中受益”。欧洲人权法院曾在判决中指出,“互联网接入日益被视为一种权利,对此应制定有效政策,弥合数字鸿沟”。然而,“数字包容”隐含着一个不一定正确的预设,即数字化是新进的,不使用数字技术是落后的、异常的和偏离规范的,非数字化是一个需要克服、需要解决的问题。由此,其完全无视了非数字化的价值,亦忽视了人们拒绝使用数字技术的正当诉求。
必须承认,非数字化具有独特的伦理价值。个体往往通过调整自主行动,应对数字化的冲击。也就是说,在无处不在的“连接文化”中,拒绝接入数字世界,是一种生活方式的意愿和选择。个体往往在具体情境中,根据具体需要,选择是否使用数字技术。2009年至今,美国非政府组织持续地倡议“拔掉电源日”(National Day of Unplugging),号召民众在每年三月的第一个周五不使用数字技术,已超过30万人支持此项倡议。2010年,多雷克(Sean Dockray)发表“脸书自杀炸弹宣言”,以退出社交媒体的行动抗议数字霸权,得到3.3万用户响应。这些社会文化现象针对数字技术及其创造者、所有者对人的控制和奴役,以批判性反思的态度,避免数字社会重蹈马尔库塞(Herbert Marcuse)所警示的“单向度的社会”与“单向度的人”的覆辙。
然而,个体的这些自主行动成本巨大,无法形成稳定的集体行动和预期。在数字生活中,不胜枚举的“软法”规范使数字化具有了事实上的强制性。曾经随着“健康码”“行程码”等“码治理”的兴起,个人若不“亮码”将寸步难行。近年来,高龄老人必须到银行柜台学习并使用“智能终端”才能办理业务的事件更是层出不穷。2022年3月,在长春疫情暴发期间,即有老人因不懂“手机抢菜”在超市门前哀求。凡此种种,无不表明必须在技术伦理的升级转变中融入个人拒绝权的价值。
在理论上,这一升级转变表现为强化“自主选择原则”。该原则被认为是算法治理的基本准则之一,强调“关键领域的自主保留”“个性服务的便捷拒绝”以及“通畅可靠的救济保障”。实践中,欧盟《可信赖人工智能伦理准则》在“个人自由原则”部分指出,“个人有权要求减轻或拒绝直接的非法胁迫、对精神自主和精神健康的威胁、不合理的监视、欺骗和不公平的操纵”。我国《新一代人工智能伦理规范》第16条亦指出,应“为用户选择使用或退出人工智能模式提供简便易懂的解决方案”。由此可见,在从倡导“数字包容”、强化数字接入,到充分尊重自主决定、将个人拒绝权融入技术伦理的升级转变中,数字社会的个人拒绝权构成了一种道德权利。
(三)数字权力格局的回应方案
对抗权力的不合法、不合理安排,是个人拒绝权的核心逻辑。宪法意义上的抵抗权与行政法上的拒绝权均源于人民主权原则,属于“公权力—私权利”二元架构的产物。由公民不服从理论出发的抵抗权,表现为基于道义理由的违法。而拒绝权则有其制度依据,本身具有合法性。在《行政诉讼法》第75条正式确立无效行政行为后,更有学者进一步主张将无效行政行为与拒绝权相结合以进行法律解释。这些拒绝权的理论与实践在数字行政中依然发挥其原有作用。然而,数字社会中权力与权利的关系发生了结构性转向,针对公权力在物理空间中特定违法行为的拒绝权已经无法满足权利保护的需要,亟须以新型拒绝权回应数字权力。
数字社会中“马太效应”显著,国家与大型平台企业的能力均不断提升,形成了“公权力—私权力—私权利”的三元博弈。“代码就是法律”的经典论断亦说明了代码就是权力。互联网是扁平化、碎片化、微粒化的,但这并不意味着均等化。诚如梅希亚斯(Ulises Ali Mejias)所述,“在节点中心网络中,参与的增加与不平等的增加是一样的,因为更强的节点往往会变得更强,而较小的节点被认为越来越不相关”。平台权力就是一种最为典型的私权力。平台企业已实现了对中立地位的超越,不仅仅是交易的撮合者以及服务的提供者,更是规则制定者、裁决者、管理者和利益相关者。通过评分机制,平台又能轻易地对用户信息进行算法分析,自动化地实现权力并规训用户。此外,由于政府将一些公法审查义务交给了网络服务提供者,“平台就具有了自身运营的管理权和政府转加的公法审查权,形成了日益庞大的、具有某种公权特征的私权力”。
数字社会的个人拒绝权在于回应数字权力,对个人进行赋权,使得个人有能力对特定不合理、不合法的数字化应用或其结果进行抵制,以捍卫人的尊严,与基本权利保护的逻辑基点一致。事实上,个人拒绝权的具体制度均植根于基本权利保护框架。就个人信息处理的拒绝权而言,个人信息保护本身即由基本权利保护发展而来。《欧盟基本权利宪章》第8条即将数据保护规定为一项基本权利,GDPR、欧盟《数字服务法》(DSA)、欧盟《数字市场法》(DMA)等数字社会的重要立法均表明了保护基本权利的立场。我国《个人信息保护法》第1条亦载明“根据宪法,制定本法”。《宪法》第38条人格尊严权即个人信息保护的宪法依据。就“离线权”而言,2021年欧洲议会明确指出,“离线权是一项基本权利,是数字时代新工作模式不可分割的一部分”。我国工作时长制度保护更有明确的宪法依据,《宪法》第43条规定了“劳动者有休息的权利”,工作时间与休假制度受法律保护。
在应对数字私权力的层面上,传统的基本权利保护框架并不足以支撑个人拒绝权,应结合数字人权的理论,将个人拒绝权定位为数字社会的应有权利。数字人权在数字权力兴起的背景下被提出,它要求我们正视数字社会中私权力兴起的面向,它对数字社会提出了以人为本的要求,要以人权尺度作为评判数字技术的根本尺度。对此,信息处理者必须充分尊重个人的自我决定权与选择自由。拒绝是同意的反面,唯有充分保障拒绝的权利,才能形成真正的选择。在著名的德国1983年“人口普查案”中,德国联邦宪法法院即在个人有权对抗无限制的信息收集行为的逻辑中,提出要保护个人信息自决权。通过个人信息保护的制度实践,这些理论又转化为对包括私主体在内的所有个人信息处理者的一般性要求。
值得注意的是,回应数字权力的理论逻辑并不足以直接证成个人拒绝权。一般认为,一项权利应同时具备合法性、合理性以及实现的可能性。一方面,关于个人拒绝权的制度形态分析已充分表明,其绝非一项凭空创造的权利,相反,它具有丰富的制度资源。另一方面,个人拒绝权的理论逻辑充分揭示了其合理性。在信息和数据价值的时代转型之中,面对强大的数字权力,个人拒绝权无疑是不可或缺的。在数字社会中,个人维护其数字人格、参与数字生活均离不开拒绝权,充分体现了个人拒绝权的现实必要性。在此基础上,必须结合个人拒绝权的具体制度与数字人权的基本要求,进一步探寻数字社会中个人拒绝权的实现路径。
四、数字社会中个人拒绝权的实现路径
拒绝权不等于拒绝数字化。拒绝权的主张绝非“以退回到一个前数字时代的方式去抵御数字化和智能算法的浪潮”,更非“新卢德分子”的反动。恰恰相反,没有数字化就无须谈论数字社会的个人拒绝权,个人拒绝权主张的是在保障数字人权的前提下拥抱数字化。唯有如此,个人拒绝权才能具有生命力,得到切实的保障。
(一)拒绝对象的限定
任何法律制度中都从不存在一种宽泛的“拒绝数字化权”。个人拒绝权的对象仅限于违法或产生违法后果的数据处理、基于特定合法性基础的数据处理、利用个人信息进行的自动化决策三类。
第一,违法行为是拒绝权中最为普遍且最为传统的对象。传统行政法上的拒绝权即限于拒绝行政机关的违法行为。在数字社会的个人拒绝权中,个人信息删除权的行使条件即《个人信息保护法》第47条第1款所列举的5类情形。在这些情形中个人信息处理的合法性基础已不存在,信息处理者继续进行信息处理本身即属于违法行为。对于违法的信息处理,信息主体当然有权拒绝。此外,虽然有些数据处理行为本身并不直接违法,但其应用将会造成不法侵害的后果,亦可成为个人拒绝权的对象。例如,数字化办公软件本身不具备违法性,但通过该方式任意延长劳动时间则产生违法后果,由此可拒绝使用相关数字化应用。
第二,基于特定合法性基础的数据处理。虽然与传统的公民拒绝权相比,数字社会中的个人拒绝权的对象出现了一定扩张,然而,若宽泛地扩张至一般的合法数据处理之中,则必将严重影响数字社会的正常经济生活秩序。根据《个人信息保护法》,针对一般数据处理的拒绝与告知同意机制紧密相连,仅限于两种合法性基础的信息处理。一是基于同意处理个人信息的,信息主体均可随时撤回同意。二是对公开个人信息处理个人有权拒绝,对个人权益有重大影响的则回归告知同意。通过撤回同意或明确拒绝,又使得数据处理失去合法性基础。然而,这并不意味着同意机制以外就绝对没有拒绝权的空间。《个人信息保护法》第44条所规定的拒绝权本身并未限定应用场景,在未来的制度发展中有进一步解释扩充的可能。域外法中,亦将对一般数据处理的拒绝限于特定合法性基础的处理活动之中。GDPR第21条即将个人拒绝权限定在基于公共利益、正当利益、直接营销目的、信息社会服务、科研统计目的处理个人信息的特定情形之中。2022年欧盟《数据法案》(Data Act)草案第18条进一步规范了数据持有人有权拒绝信息处理者以公共紧急情况为由获取的情形。
第三,自动化决策拒绝权将拒绝的对象延伸至算法及其结果之上。在GDPR立法过程中,曾出现算法应用拒绝权与算法结果拒绝权的争议。争议的核心在于个人是否有权一概拒绝自动化决策算法应用,抑或仅有权反对完全自动化处理所得出的决定。最终,算法应用拒绝权被认为可能阻碍技术创新与行业发展而被抛弃。GDPR第22条第1款将拒绝的对象限定为“仅基于自动化处理行为得出的决定”,且该决定必须“对个人产生法律影响或与之类似的显著影响”。GDPR第22条第2款进一步对算法结果拒绝权进行了限制,明确将合同所必需、成员国法律授权、数据主体明确同意规定为豁免事由。与欧盟类似,我国亦对自动化决策拒绝权进行了严格限制。《个人信息保护法》第24条将算法应用拒绝权限于“通过自动化决策方式向个人进行信息推送、商业营销”的情形,对于其他算法应用而言,一律采取算法结果拒绝权的路径。在算法结果拒绝权中,信息主体并无权反对一般的自动化处理应用,仅有权拒绝“仅通过自动化决策方式作出”“对个人权益有重大影响的决定”这一特定的结果。也就是说,个人行使算法结果拒绝权有两个前提:一是仅通过自动化决策的方式,即决定需要完全排除人工干预,若信息处理者保留最终作出决定的权利和能力则不能适用;二是对个人权益有重大影响,应解读为对个人法律上权利、义务、责任关系以及经济地位、社会地位等状况的改变。两个前提条件的要求与GDPR第22条第1款基本一致。
除上述三类对象外,并无个人拒绝权适用的空间。不论是否乐意,数字化的潮流已不可阻挡。正如不存在一种反对使用电力而坚持让他人烧柴火的拒绝权一样,法律无法认可任何人宽泛地反对数字化应用。个人拒绝权的基点仍在于对违法数据处理或数据处理的违法后果的拒绝,对合法数据处理的拒绝受法律的严格限制。
(二)对应义务的重塑
由于数字权力中出现了私权力的面向,数字人权对应的义务已不限于传统的国家义务,数字人权的法律义务体系“由个人义务、科技企业义务与国家义务构成”。结合数字人权的保护需要,个人拒绝权的对应义务应从以下四个方面进一步完善。
第一,在数字人权保护的国家义务上,国家应充分尊重个人拒绝权,在线上与线下两种场景中同时提供高质量的公共服务。这是国家履行宪法的保护性义务,尤其是平等保护义务的必然要求。公共资源不应向有数字接入能力的人倾斜,数字弱势群体即便不接入数字系统亦有权利平等地享受公共服务。因此,数字社会的政务服务场景不仅仅是数字化、智能化的,更应是多元化、以人为本的。在“数字政府”建设的同时,不能一味追求数字化、在线办理,必须正视公众的感受,不得通过数字化的方式不当限制公民的合法权益,“应该给公众选择不同服务渠道和服务方式的权利”。当前,部分地区将“数字政府”相关服务平台的线上预约作为政务服务的前置流程,不使用数字化方式将难以享受相关公共服务,实为通过数字化的名义不当减损了公民权利。在这个意义上,个人拒绝权表现为一种自主选择权。《优化营商环境条例》第37条第4款即指出,在政务服务大厅与政务服务平台的全面对接融合背景下,“市场主体有权自主选择政务服务办理渠道,行政机关不得限定办理渠道”。线上服务不是线下办理的替代,而应提供给公民更多元化的选择。以政府信息公开为例,《政府信息公开条例》第23—25条规定,在线公开只是其中一种公开方式,除此之外还存在新闻发布会、报刊、广播、电视等多种公开途径。又以行政事业性收费为例,部分地方只接受“数字钱包”付款的做法更是直接违反了《人民币管理条例》第3条关于任何单位和个人不得拒收人民币的规定。对于该种“强制数字化”的流程,应坚决予以纠正。
第二,在信息处理者的法律义务上,个人拒绝权对应预防性责任,以告知义务的履行为必要条件。损害结果难以确定、一旦损害无法补救等问题使得传统的结果责任已经无法适应数字时代的人权保护要求。个人拒绝权不仅仅是对损害结果的拒绝,更是关注信息处理行为全过程的约束与控制,并以知情权为基本前提。《民法典》第1037条第1款即指出,自然人有查阅、复制个人信息的权利,发现错误则有权提出异议。《个人信息保护法》第48条进一步规定了个人有权要求信息处理者对信息处理规则进行解释。在自动化决策拒绝权中,知情权的要求更被发展为算法透明、算法解释的规范。GDPR序言第71条即指出,自动化决策中,处理者应向数据主体提供具体的信息,对自动化决策算法进行解释。这一条款并不具有法律效力,但对算法解释权的理论构造具有重要意义。然而,基于商业秘密、言论自由等多种理由,算法解释权一直备受争议。有学者主张,“数据主体不得请求企业解释自动决策算法的决策逻辑”。该观点值得商榷。当前,算法解释的深度远远不足,平台常常依人工智能技术对用户作限流、删帖、封禁等处罚,用户寻求解释时,平台仅笼统地解释为“依据相关法律法规”或“依据社区公约”,甚至不会告知用户何种行为构成违规,缺乏基本的公开明确性。唯有信息处理者充分履行解释义务,信息主体才有机会作出合理判断,从而行使拒绝权。《个人信息保护法》第24条第3款将“要求个人信息处理者予以说明”的权利与自动化决策拒绝权并列。这种信息处理者对算法的说明必须包括算法的基本逻辑。在对“阿里妈妈案”的裁判意义进行说明时,杭州互联网法院明确指出,“平台行使算法权力应当公开透明,事先披露治理机制、管理规则以及相关技术原理。在平台自治过程中,用户有权质疑自动化决策和申诉,进一步知晓算法逻辑构造”。借鉴欧盟的相关规定,信息处理者应以清晰易懂的语言,以一个“没有受过教育的门外汉”能理解的标准进行解释。同时,算法解释不能过于粗糙,根据《互联网信息服务算法推荐管理规定》第16条,至少应包括算法的基本原理、目的意图和主要运行机制等。
第三,在数字产品的生产中,应通过设计保护个人拒绝权。设计就是权力,能直接影响用户的使用行为。麦克卢汉(Marshall McLuhan)即指出,“起初,我们塑造了工具,最后工具又反过来塑造我们”。产品的功能设计与个人拒绝权的行使息息相关。2020年,微信曾因个性化广告推送关闭入口“隐藏太深”而备受质疑。随后,在产品设计优化中该问题得到了解决,通过将关闭入口放置于明显位置,使得用户易于行使个人拒绝权。根据“通过设计保护隐私”(Privacy by Design)理论,生产者应主动将隐私保护融入产品设计之中,实现以用户隐私为中心的端对端安全。GDPR第25条即要求信息处理者采取相关技术和组织措施完善隐私保护设计,并在最小必要原则的指引下设定默认选项。欧盟《数据法案》草案在立法理由中提出“对于用户来说,拒绝或中断第三方对数据的访问应该像授权访问一样容易”。我国立法虽未明确引入隐私设计的理念,然而并不缺乏针对数字产品设计的法律规范。例如,《互联网信息服务算法推荐管理规定》第17条第2款规定,服务提供者应向用户提供选择或删除用户标签的功能。为满足《个人信息保护法》第16条的要求,信息处理者亦需要对产品设计进行调整,使得在信息主体行使拒绝权后仍能使用相关产品或服务。此外,根据《个人信息保护法》第62条,国家网信部门可以通过制定具体规则、标准的方式,进一步细化与拓展对产品设计与默认设置的要求,使得用户可以更便捷高效地行使个人拒绝权。
第四,在公民数字素养的提升上,应将拒绝的意识与能力作为一种新的数字素养。长期以来,数字素养关注的核心在于数字接入能力,似乎接入数字世界、化解“数字鸿沟”就等同于数字素养提升,然而实际效果并不理想。例如,疫情防控期间许多志愿者教会了老年人如何使用智能手机,但相关操作常常以“迅雷不及掩耳之势”完成,只是停留在使数字弱势群体“能使用”的层面,远远未及“会使用”“会拒绝”的数字素养提升。面对个人信息保护设置、账户退出与注销等问题,数字弱势群体依然弱势。在数字世界中,若数字公民不懂得拒绝,不仅其个人信息可能被滥用、工作时间可能无限延长,而且可能成为数字化的奴隶,陷入数字化的深渊之中。研究表明,高强度的数字接入已经展现出“社交负担与维护成本增加”“时时处于表演与自我审查中”“私人空间与时间受到挤压”“线上过度连接对线下连接的挤占”等问题,用户易在数字生活中感受到信息过载、社交倦怠和压迫感。对此,必须在提升数字弱势群体数字接入能力的同时,注重培养拒绝的意识与能力,如此方可实现公民数字素养的全面提升。
(三)多元利益的平衡
数字社会中的个人拒绝权必须处理好信息保护、信息控制与信息流动的关系,平衡信息主体利益、第三人利益与社会公共利益。数字人权理论中即强调构建人权价值的平衡共享机制。一方面,对于存在法律明确规定的新型拒绝权而言,虽然无须通过利益衡量判断权利是否存在,但亦需综合多种因素判断侵权责任。《民法典》第998条通过引入动态系统论的视角,强调除生命权、身体权和健康权外,人格权侵权责任“应当考虑行为人和受害人的职业、影响范围、过错程度,以及行为的目的、方式、后果等因素”。另一方面,对于根据法律推定的新兴拒绝权而言,则必须采取利益衡量的方法,在考虑利益内容的确定性、合法性以及价值重要性的基础上,结合多种因素综合判断。
在具有不同价值重要性的合法利益之间,基础利益应优先受到法律保护。以“离线权”为例,劳动者身心健康的利益与雇主的经营管理利益相比具有显著的重要性。劳动者对于违法延长工作时间的安排有权拒绝。但劳动者的休息时间是否被不合理限制,亦受到劳动条件、工时制度等具体因素的影响。在数字时代,休息时间是否等于真正的自由时间?这一疑问可结合两个方面具体分析。一是在采用综合工时制与采用不定时工作制的劳动者之间,下班休息时间的灵活度本身即具有差异。应根据劳动者具体的工时制对其休息时间进行分析。二是在劳动时长的限制下,可结合休息时间的质量与其他就业机会的限制判断是否属于不当延长工作时间。2018年“尼韦士诉马扎克案”中,欧洲法院裁定消防部门要求消防员随时待命,即使下班也必须在几分钟内响应,“这样的工作安排非常严重地限制了劳动者从事其他活动的机会”,属于延长其工作时间。此外,“离线权”的利益平衡主要通过协商机制实现。法国的“离线权”即要求雇佣双方在劳动合同中对非工作时间的联络问题进行协商。然而,由于劳动者的相对弱势地位,对“离线权”更应采取集体协商机制实现。
在具有同等价值重要性的合法利益冲突之时,多种因素的考虑尤为重要。以“被遗忘权”为例,对于“为实现处理目的不再必要”的分析关系到数据保护的权利与知情权、表达自由权三种基本权利的平衡。虽然《个人信息保护法》第47条未对删除权的限制进行规定,但并不意味着无须利益衡量。一方面,由于“被遗忘权”关注的是“信息随着时间的流逝可能变得脱离语境、扭曲、过时和不再真实”,时间应是其中最为重要的衡量因素。另一方面,“被遗忘权”的利益平衡中至少还应考察信息与信息主体的相关程度,信息主体的身份,信息的准确性、相关性与类型,信息处理及其场景与风险等多种因素。最终是否支持删除必须回到信息处理目的这一客观标准进行判断,不应受信息主体是否希望被遗忘的主观要素影响,当其他利益优于信息主体的利益时,信息主体不可主张“被遗忘权”。GDPR第17条第3款即指出,确有必要时,行使言论与信息自由权、履行义务或职务、基于公共健康利益、实现科学研究目的、为诉讼所需进行的数据处理可以排除该项权利。
值得注意的是,多种因素综合判断有时可能得出模棱两可的结论,使得对个人拒绝权行使条件的解读进一步复杂化。此时,可借助比例原则对数据处理本身的必要性进行判断。在前文提及的“智慧课堂”视频监控、智能“加油手环”等事例中,通过比例原则衡量即可发现,使用智能监控处理敏感个人信息并非实现教学与管理目的的正确手段,信息处理者并未采取其他风险更小的替代措施,智能监控对公民权利的减损亦远大于其所实现的利益。因此,这些信息处理行为均不满足个人信息保护的必要性要求,属于违法的个人信息处理行为,信息主体可行使个人拒绝权。
五、结 语
人们时常将美好的未来想象为高度智能化、数字化的世界。然而,一个科技高度发达的世界也可能是奥威尔(George Orwell)笔下的“大洋国”或赫胥黎(Aldous Leonard Huxley)笔下的“美丽新世界”,对人的自由发展构成严重威胁。这是因为,没有个人拒绝权就没有自主决定。在数字社会的权利中,个人拒绝权绝非对技术的抗拒或厌恶,而是一股积极的变革力量。认真对待数字社会的个人拒绝权意味着,既要从基本权利保护的角度为个人拒绝权创造必要的条件,又要在法律框架的限制中适用个人拒绝权。唯有如此,方可使个人拒绝权从一项“空洞的承诺”落实为个人实有的、真正的权利,最终,通过个人拒绝权有效地回应数字权力、捍卫数字人权,充分尊重和实现人的自主性。
《数字法治》专题由华东政法大学数字法治研究院特约供稿,专题统筹:秦前松。