中国实践
AI发展法先行,首届“AI善治论坛”发布《人工智能法学者建议稿》
2024-03-17 14:58  点击:21252

中国网讯:2024年3月16日上午,“AI善治论坛 人工智能法律治理前瞻”专题研讨会在北京友谊宾馆顺利举办,会议发布了《中华人民共和国人工智能法(学者建议稿)》,起草专家组由中国政法大学数据法治研究院、西北政法大学法治学院、中国信息通信研究院、北京航空航天大学法学院、华东政法大学数字法治研究院、西南政法大学科技法学研究院、中南政法大学知识产权研究中心七家单位的专家组成。来自北京大学、清华大学、中国人民大学、中国人民公安大学、中国社会科学院、对外经济贸易大学、北京电子科技学院等二十余所全国高校的专家学者出席了此次会议。

会议探讨了如何更好地引导和规范未来人工智能产业的健康发展。起草专家组经过一年的紧张工作,特邀国内人工智能治理领域的技术专家、法律专家、实务专家提出建议,为完善《人工智能法(学者建议稿)》提出具体意见,共同回应现实需求,为立法建言献策。会议分为两个单元,分别就《人工智能法(学者建议稿)》和人工智能法律治理问题进行了深入的交流和讨论。

中国政法大学副校长、数据法治研究院院长时建中教授对各位专家学者的到来表示欢迎并致辞。时建中指出,人工智能立法,需要明确《人工智能法(学者建议稿)》的定位和目标,确定调整范围和对象,提炼需要立法解决的问题,特别是重点问题,进而提出相应的法律对策,并为技术进步和制度完善预留接口。同时,时建中教授认为,研究人工智能立法,对于人工智能相关学科的发展有着特别的助推作用。

第一单元 《人工智能法(学者建议稿)》交流

《法律科学》主编、西北政法大学法治学院教授杨建军介绍了起草专家组成员,并就《人工智能法(学者建议稿)》起草背景进行了说明。起草专家组牵头专家为联合国高级别人工智能咨询组的中方专家、中国政法大学数据法治研究院张凌寒教授,专家组成员包括《法律科学》主编、西北政法大学法治学院杨建军教授;中国信通院政策与经济研究所程莹高级工程师;北京航空航天大学法学院院长助理赵精武副教授;华东政法大学数字法治研究院副院长韩旭至副教授;西南政法大学科技法学院副院长郑志峰教授;中南财经政法大学知识产权研究中心徐小奔副教授。杨建军教授指出推出《人工智能法(学者建议稿)》有如下三点动因:一是彰显主张。本建议稿明确主张“高擎发展旗帜,彰显人本主义”。现阶段的中国的人工智能立法需明确发展目标,推动建立人工智能技术产业健康发展的良好生态。在制度设计中应彰显人本主义,贯彻我国《全球人工智能治理倡议》中“以人为本”的人工智能治理主张。二是聚焦问题。学者建议稿意在抛砖引玉,通过对制度设计的重点和焦点问题的讨论,为我国人工智能立法提供参考。三是凝练共识。未来由会议主办单位成立的AI善治研究共同体,将组织系列论坛。汇聚各界主张与观点,在多轮讨论中深化产学研共识,营造监管、学界和业界充分交流的良好生态。

主持人中国政法大学数据法治研究院教授张凌寒对《人工智能法(学者建议稿)》的总体情况进行了介绍。建议稿共九章九十六条,主要内容包括一般原则、发展与促进、权益保护、安全义务、监督管理、特殊应用场景、国际合作、法律责任等,涵盖未来人工智能治理的主要问题。张凌寒教授指出《人工智能法(学者建议稿)》以促进产业发展为主要特色。她指出,在目前全球激烈竞争的格局下,“不发展是最大的不安全”。我国人工智能产业“领先的追赶者”的独特国际生态位要求我们在技术和产业的国际竞争中必须以发展为制度设计的主要目标,安全问题也需要通过技术发展来回应和解决。因此《人工智能法(学者建议稿)》中设立“促进与发展”专章,也在监督管理、责任设置等方面对此予以充分考虑,减轻人工智能产品和服务提供者的义务。

专家组成员赵精武副教授、韩旭至副教授、徐小奔副教授、程莹高级工程师、郑志峰教授分章节对《人工智能法(学者建议稿)》进行了介绍。

关于第一章“总则”,北京航空航天大学法学院院长助理、副教授赵精武指出“总则”部分的立法亮点主要有四个方面。第一,法治与德治结合,强调科技伦理审查的重要性。《人工智能法(学者建议稿)》将科技伦理审查原则置于所有基本原则首位,强调人工智能产业发展过程中科技伦理的重要调控作用。任何技术的创新发展都不应当以牺牲个人权益为代表,人工智能的技术应用同样需要符合科技伦理的基本要求。并且,科技伦理审查的内容会随着技术创新而一同变化,能够灵活地根据人工智能技术发展前沿有所变化。第二,将人工智能安全拆解为数项基本原则。《人工智能法(学者建议稿)》在基本原则层面将人工智能安全这一立法目标予以细化拆解为公平公正原则、透明可解释原则、安全可问责原则、正当使用原则。第三,算力资源发展成为基本原则的重要内容。《人工智能法(学者建议稿)》提出了发展基础设施和绿色发展原则,这两项基本原则与算力资源统筹规划、算力互联互通等基础制度密切相关。第四,明确人工介入原则,最大限度控制技术风险。《人工智能法(学者建议稿)》创新性地提出人工介入基本原则,避免完全自动化决策对个人权益可能产生的负面影响。并且,在兼顾技术创新与技术安全的双重立法目标下,通过人工介入的方式最大限度地预防用户终端可能产生的各类技术安全风险,避免对技术研发环节作出过多的限制。

关于第二章“发展与促进”,华东政法大学数字法治研究院副院长韩旭至副教授认为,《人工智能法(学者建议稿)》重点考虑以下内容:一是立足人工智能三要素设置促进措施。在算力层面,提出加强算力基础设施建设,推动算力标准体系建设,建立算力基础设施资源调度机制,推动公共算力资源平台建设与利用;在算法层面,提出要支持算法与关键技术创新,加强算法模型保护,推进开源生态建设;在数据层面,提出要提升高质量数据要素供给能力,建立人工智能产业数据资源统筹机制,建立人工智能数据资源共享机制等措施。二是设置人工智能保险制度,鼓励保险公司探索和开发适于人工智能产品和服务的网络安全保险、第三方责任险等,鼓励构建人工智能保险责任机制。三是强化提升数字素养,政府应当提升数字公共服务,推进无障碍环境建设,组织开展经常性的人工智能科普及相关法律宣传教育工作。

关于第三章“使用者权益保护”,北京航空航天大学法学院院长助理、副教授赵精武重点强调了以下内容。一是将平等权作为使用者权益保护的首项权利,能够预防“唯数据主义”导致的人工智能产品、服务被应用于不合理、不科学的社会群体分类目的。二是将知情权作为使用者权益保护的重要内容之一,因为该项权利是使用者行使其他权利的前提条件,只有充分知晓人工智能产品、服务的基本情况,使用者才能合理地评估和判断是否要采取相应的措施。三是正面回应了生成内容知识产权问题,《人工智能法(学者建议稿)》采用“按照贡献程度”的动态认定模式明确相关的权利主体,并且明确按照现行的著作权法或专利法对生成内容是否构成“作品”或者“发明创造”予以判断;同时,《人工智能法(学者建议稿)》明确否定了人工智能作为权利主体的可能性,仅允许个人、法人等法律主体作为著作权或专利权的权利主体。四是关注劳动者和数字弱势群体权益保护,《人工智能法(学者建议稿)》针对人工智能技术被用于人力资源管理活动这一情形,明确规定禁止用人单位侵害劳动者的合法权益,尤其是利用人工智能技术对劳动者的工作情况开展不合理、不合法的监控活动,禁止完全依据人工智能决策结果作出惩罚、解雇等决定。此外,《人工智能法(学者建议稿)》还特别关注到数字弱势群体可能面临的数字鸿沟问题,明确人工智能开发者、提供者应当专门增设面向数字弱势群体权益保护的特殊功能模块。

关于第四章“义务规范”,中南财经政法大学知识产权研究中心徐小奔副教授介绍了人工智能开发者与提供者的义务与规范。《人工智能法(学者建议稿)》重点区分了一般人工智能和关键人工智能,强调关键人工智能需要在组织机构、风险评估、风险披露、安全应急处理等方面所应该承担的关键义务,同时应该在不同行业领域对关键人工智能作出特别规范。徐小奔教授在发言中提到根据流程阶段设计义务规范的重要性,即在开发阶段、提供阶段对于人工智能的正确使用提出不同的义务要求。最后,徐小奔教授强调了知识产权利益平衡规范的重要性,《人工智能法(学者建议稿)》对于人工智能产品或服务的开发、提供、使用等环节中涉及的知识产权问题进行了回应,力求在现有法律框架内探索有益于促进人工智能健康发展的制度安排,使人工智能立法与知识产权强国战略纲要等国家知识产权战略相一致。

关于第五章“监督管理”,中国信通院政策与经济研究所高级工程师程莹从监管统筹协调机制、分级分类监管模式、完善人工智能监管举措三方面介绍了《人工智能法(学者建议稿)》亮点。其一,建立人工智能监管统筹协调机制,发挥其在战略规划、风险管控、规则制定、社会服务体系建立等方面的总体协调作用;相关人工智能主管部门则在各自职责范围内负责规范制定和宣传指导等工作。其二,建立分级分类监管制度,根据技术发展、行业领域、应用场景等因素动态调整人工智能分级分类标准,对关键人工智能实施特殊监管,确保关键人工智能风险可控。其三,完善监管沙箱试点制度,一方面在准入条件、风险评估、审计、法律责任等方面给予主体相应便利、激励或者责任减免,为人工智能技术产业发展提供宽松环境;另一方面加强风险管控和评估评测,统筹建立国家人工智能评估评测平台,发挥多元协同力量,优化评估认证社会化服务及评测结果互认。

关于第六章“特殊领域义务”,中南财经政法大学知识产权研究中心徐小奔副教授介绍了《人工智能法(学者建议稿)》对通用人工智能研发、基础模型应用活动提出的特殊义务。就国家机关使用人工智能的活动,以及通用人工智能、司法、新闻、医疗、生物识别、自动驾驶等重要领域人工智能,《人工智能法(学者建议稿)》重点明确了相关利用规则。徐小奔教授介绍,对于超越人类智能、具有显著不可控风险的通用人工智能研发者,应当在研发活动中,采用价值对齐等技术手段确保风险可控,根据风险、系统能力进行阶段性风险评估,向人工智能主管部门报送红队测试结果、严重安全事件等信息。基础模型应用于千行百业,建议稿对基础模型衍生开发、开源模型使用限制作出要求。

关于第七章“国际合作”,中国政法大学数据法治研究院教授张凌寒就国际治理、反制措施、打击犯罪进行重点介绍。一是明确人工智能国际治理规则。《人工智能法(学者建议稿)》提出共同、综合、合作、可持续的全球安全观,坚持发展和安全并重的原则。人工智能安全风险全球化背景下,应当重视人工智能治理的国际合作与交流,积极参与制定人工智能有关国际规则、标准,促进形成具有广泛共识的人工智能治理框架和标准规范,防范人工智能安全风险,推动构建开放、公正、有效的全球人工智能治理机制。同时,作为联合国安全理事会常任理事国之一,中国履行联合国安全理事会常任理事国的应尽责任,积极参与全球人工智能治理,维护联合国安全理事会权威与地位。二是制定反制条款。面对美国等发达国家试图通过制裁手段遏制中国的人工智能发展的国际竞争局势,《人工智能法(学者建议稿)》对此专门制定反制条款以维护国家利益。三是强调打击人工智能犯罪的国际合作。全球化背景下,人工智能犯罪具有跨国性,打击人工智能犯罪需要加强国际间的执法、司法合作。

关于第八章“法律责任”,西南政法大学科技法学研究院教授郑志峰从行政责任、民事责任和免责事由三方面进行了介绍。首先,《人工智能法(学者建议稿)》对行政责任进行了规定,设置了行政处罚的一般条款,包括暂停新使用者注册、下架应用、停止更新等措施,以及针对严重违法行为的罚款和从业禁止措施。其二,《人工智能法(学者建议稿)》规定了民事责任。提供者的民事责任根据一般人工智能与关键人工智能进行区分,前者采取过错归责,后者适用过错推定责任;使用者的民事责任则明确适用过错责任。《人工智能法(学者建议稿)》规定提供者与使用者共同承担责任的情形,以与产品责任相协调。针对人工智能服务提供者规定了新的避风港规则,明确其与使用者的责任承担。此外,《人工智能法(学者建议稿)》还规定了惩罚性赔偿、保险责任与公益诉讼。其三,关于免责事由,《人工智能法(学者建议稿)》一方面明确了利用基础模型以及开源基础模型从事人工智能研发、提供、使用活动的,由衍生利用一方承担法律责任,同时基础模型提供者需要负担适当的注意义务;另一方面规定了合规免责条款,明确开发者、提供者、使用者在合规基础可以相应豁免行政和刑事责任。

第二单元 人工智能法律治理问题研讨

该单元由中国信通院政策与经济研究所高级工程师程莹担任主持人,她谈到Chat GPT的广泛应用变革人类社会的生产生活方式,需要我们从更深层次了解大模型和人工智能。我国目前正处于边发展边治理的过程,无论是对学术研究还是监管层面都提出了更高的要求。人工智能立法要结合实际探索的过程,而非照搬国外。在此背景下,希望以《人工智能法(学者建议稿)》为靶点推动政产学研各方面讨论交流。

清华大学计算机系教授、国家高端计划人才张敏提出:第一,目前我国在人工智能硬件上面临较大的卡脖子风险,未来人工智能会实现软硬件结合的技术突破,《人工智能法(学者建议稿)》可以增加有关人工智能硬件方面的促进性规定。第二,术语定义有待进一步明确。关于人工智能的定义,即人工智能是探讨用计算机来模拟人类智能行为的科学。关于人工智能研发者的定义,目前的定义仅覆盖到了特别小的部分,实际上产品和服务只是其中的一点,人工智能研发者还涉及从事机理、模型、算法,软件和硬件的研究和开发活动的个人和组织。关于通用人工智能的定义,建议将效果和定义区分开,暂且不论其是否达到人类的智力水平,只要其模拟人类智能行为即可。比较准确的描述是,通用人工智能具有比较广泛的认知能力,在不同任务里理解和学习完成特定任务。立法既要看到通用人工智能,也不要忽略领域和专业人工智能。第三,人工智能是一门科学,应当把人工智能的方法、技术、系统、产品和服务区分开来。第四,关于人工智能研发者、提供者“不得收集非必要个人信息”的要求,什么是“必要的”不太容易界定,是否考虑强调用户知情和授权更为合适。第五,关于特殊领域、关键人工智能的范围无法实现完全列举,可以进行概括性描述。此外,社交机器人的提法可以再进一步完善。

北京大学法学院副院长、副教授戴昕指出:第一,需要建设比较客观的认知环境,使用户或者公众理解如何规范应用人工智能。如果有风险,应当明确风险的具体指向。第二,需要优化数据供给环境。数据要素供给是一个一般性的讨论,相关部门如果希望将公共数据向人工智能产业开放和授权利用,需要有明确的指引。第三,可以结合保险机制设计责任救济制度。在结合保险与合规免责的基础上,可以考虑运行成本更低的严格责任,避免人工智能领域过错责任认定带来的复杂问题。

中国社会科学院法学研究所研究员支振锋提出:第一,我国《人工智能法》应基于自身实践和国情,同时广泛吸纳借鉴欧盟,美国等人工智能相关立法。第二,法律必须服从规律,法律不能挑战规律,人工智能立法不能突破人工智能技术创新规律、人工智能产业发展以及立法内在规律。第三,立法的关键在于解决问题。要找准当前中国人工智能开发利用中存在的具体实践问题,在立法中给出综合性、框架性解决方案。第四,人工智能立法中涉及的数据要素供给、防止个体生物识别信息滥用等问题,有赖于相关立法的协同推进。第五,应当成立人工智能发展与监管的主管部门,避免九龙治水。第六, 人工智能立法涉及的相关主体,如人工智能研发者、提供者和使用者等,要与我国既有立法体例相协调。

中国人民大学未来法治研究院执行院长、法学院副教授张吉豫认为,人工智能法在把控风险的同时,也要促进人工智能发展。事前的科技伦理审查确有必要,但可以考虑删除一些不必要的事前义务。对于所有大型基础模型未来是否都进行较严的监管是需要考虑的,并非所有人工智能均需要备案,备案是进入市场的前置要求还是仅为一项待完成的任务有待思考。从促发展的角度而言,监管行为本身的规范也是比较重要的方面。责任方面,绝大多数情况下适用过错责任原则是比较合适的,法律责任条款之间的衔接性有待明确。服务提供者的定义需要进一步明确,因为这涉及责任界定问题。条款主要针对生成式人工智能,对于其他类型人工智能的服务提供者也应纳入讨论范畴。

中国人民公安大学数据法学研究院院长、法学院教授苏宇提到,第一,关于统筹规划的问题。统筹规划条款不一定适用人工智能,建议克服思维定式。第二,不能把人工智能法的调整对象默认为大模型或者生成式人工智能。诸多条款主要针对生成式人工智能,会对大部分人工智能产生限制效果。例如大部分人工智能产品并不会涉及隐私保护问题,也不需要训练数据,应当充分考虑人工智能的多样性。第三,研发者例外问题。针对投放市场和科研专用这两种情形的例外制度是必要的。研发者不能默认为大企业,还可能是个人从事人工智能研发,例如个人研发者进行人工智能研发没有能力建立科技伦理审查委员会。第四,定义问题。一是机器学习和强化学习是不能并列的;二是训练数据的定义与欧盟人工智能法的差异较大,欧盟的定义更为合理。此外,人工智能研发者、通用人工智能的定义也有待进一步讨论。第五,大模型技术治理的细节问题。例如,在大部分情况下在输出时标注数据来源是不现实的,建议加入“尽可能”。第六,部门法细节问题。具体行政行为一词已经用得比较少了,行政罚款也是一个比较怪的用法。国家机关作出行政行为只符合法律和行政法规的规定是不够的。

对外经贸大学法学院数字经济与法律创新研究中心主任、副教授许可指出,人工智能法是一部非常难立的法。为此,在立法之前,应当有非常审慎的准备。首先,有必要先确立一个可行、渐进和包容的“立法议程”,即引入企业、学界、技术专家、社会公众和政府部门等多利益相关方,遵循商谈逻辑和议题形成程序,就人工智能法的步骤、议题和解决方案凝聚社会共识,推动市场、科技、监管和全球治理的同频共振。其次,应明确人工智能法的定位问题,是采取体系导向型立法还是问题导向型立法。再次,应明确人工智能法的性质问题,是管理法、促进法、权利法、交易法,还是保护法。第四,应明确人工智能法的立法宗旨,是基于风险的规制还是基于权利的保障。第五,应明确人工智能法的聚焦问题,梳理发展中的具体瓶颈,以及可能面临的具体风险点。第六,应明确人工智能法的限度。人工智能法存在内在与外在的限制,就内在限制而言,要协调好伦理、技术、法律之间的关系,就外在限制而言,要考虑其与个保法、数安法、网安法等法律的衔接问题,对此可以使用模块化立法方案。

中国社会科学院大学互联网法治研究中心执行主任刘晓春谈到,《人工智能法(学者建议稿)》针对复杂而动态的人工智能行业发展,秉持促进发展和行业规范并重的思路,勾勒了基本原则体系,建构了基本的立法框架,确立了“研发者、提供者、使用者”的主体类型并分别设置权利义务和法律责任,对我国人工智能立法进程具有实质性的贡献。她接着从完善角度提出以下三方面建议。第一,人工智能领域主体类型化和权利义务、法律责任匹配的问题。使用者的主体范围要充分考虑作为消费者的用户之外的商业使用主体来设置相关规则;提供者和研发者的义务体系,应当考虑两者之间义务匹配的区分和衔接,避免研发者义务过重,且根据提供者的可能业态来配置义务和责任,特别是充分考虑应用层功能的提供者,和开源生态的情况。第二,建议在立法上构建支撑人工智能发展的促进型基础设施,例如建立促进高质量数据集合的生产和获取、促进算力资源优化分配的基础机制等。第三,在承担加重义务的特定类型人工智能部分,例如关键人工智能、通用人工智能、特殊类型人工智能等,建议明确科学、清晰、风险导向的基础概念和类型,为人工智能产业快速健康发展树立具有较强确定性的规则和责任机制。

北京电子科技学院副教授王玎认为,第一,将“立法依据”改为“立法目的”,立法目的决定人工智能立法定位和内容范畴,是人工智能法基本原则的原则。人工智能法应有三个直接目的和一个根本目的。三个直接目的是“支持、规范、防范”,即推动人工智能技术、产业创新发展,规范人工智能研发、提供、使用活动,防范人工智能技术应用损害国家安全和个人、组织的合法权益。一个根本目的是“推动人工智能技术支撑和引领经济社会发展,增进人民群众福祉,全面建设社会主义现代化国家”。第二,将“政务人工智能”改为“国家机关使用人工智能”,建议对行政机关使用人工智能的范围、条件、程序作出明确规定。

最后,中国政法大学副校长、数据法治研究院院长时建中为会议做了总结发言,他指出立法是一件非常不容易的事情,各位专家对《人工智能法(学者建议稿)》提出了非常具有建设性的意见。并指出,基本概念的界定十分重要,如何将技术术语转换为法律语言值得思考。通过法律和技术良性互动,促进人工智能向善发展。

本次“AI善治论坛”研讨会的成功召开,为未来我国人工智能立法和实践提供了宝贵的参考经验,更为我国人工智能法律的未来发展提供了宝贵的思路和方向。

未来“AI善治论坛”也将不断探索与实践,力争成为推动我国人工智能领域治理进步的重要平台。论坛将密切关注人工智能发展动态和治理重点,定期举办会议,汇聚各方智慧,总结人工智能治理的最佳实践和最新进展,推动建立健全我国人工智能治理体系,确保技术发展与社会价值观的和谐统一,以“善治”促“善智”,使AI善治论坛成为促进我国人工智能健康发展的重要力量,助力中国人工智能立法发展。

本次会议得到了《法律科学》《法商研究》《现代法学》《华东政法大学学报》《北京航空航天大学学报(社会科学版)》《北方法学》《数字法学评论》《北航法律评论》的大力支持。

(张凌寒、于琳、石依冉)

编辑:秦前松