登陆注册
13388

《暂行办法》预防性监管,助力人工智能安全发展︱法经兵言

锤子财富2023-07-19 21:03:010
从4月11日公布《暂行办法(征求意见稿)》到《暂行办法》的正式颁布,仅3个月的时间,其速度之快足以见得我国对支持和规范AI技术和产业发展的积极态度与重视程度。

当前,人工智能(AI)产业随着生成式AI的出现展现出巨大发展动能和创新潜力,已经逐渐成为新一轮科技革命和产业变革的核心驱动力,它的应用涉及医疗、交通、教育、金融、制造业等众多社会领域,将重塑人们的生产生活方式,成为未来国际竞争的决定性领域之一。

然而,一方面,AI新产业、新业态、新模式、新技术的发展对于科技伦理、社会公共道德、总体国家安全及各领域法律秩序都构带来不同程度的挑战,甚至是颠覆式的挑战;另一方面,我国AI技术与产业仍处于发展初期,与美国等发达国家相比还存在一定的差距。因此,在规范健康安全的轨道上大力推动AI产业发展,在关键期抢占AI产业发展先机,是我国面临的重要任务。2023年7月10日,国家互联网信息办公室等七部门联合签发了《生成式AI服务管理暂行办法》(下称《暂行办法》)。从4月11日公布《暂行办法(征求意见稿)》到《暂行办法》的正式颁布,仅3个月的时间,其速度之快足以见得我国对支持和规范AI技术和产业发展的积极态度与重视程度。

8月15日起即将施行的《暂行办法》分为总则、技术发展与治理、服务规范、监督检查和法律责任、附则等五章,从立法框架来看,《暂行办法》调整了征求意见稿的逻辑与顺序,更加模块化与体系化,明确了对生成式AI服务的监管思路,为后续对生成式AI服务的监管明确了思路、确立了方向。

在总则中,《暂行办法》明确了其上位法依据、适用范围、国家对生成式AI的基本立场、治理原则以及提供和使用生成式AI应当遵守的基本依据。与征求意见稿相比,总则中改动最大的一点是明确了对生成式AI的监管原则与方法,即“坚持发展和安全并重、促进创新和依法治理相结合的原则”“对生成式AI服务实行包容审慎和分类分级监管”。

这体现出我国对支持AI规范发展的核心理念:第一,面对AI产业发展的关键期,我国将始终在总体国家安全观的指导下,将安全作为AI产业发展的底线,使AI在法治轨道上实现健康可持续的创新发展。

第二,对生成式AI的治理延续了《数据安全法》《关于加强互联网信息服务算法综合治理的指导意见》中对于数据和算法的分类分级管理理念,一方面是加强AI治理领域的连续性与一致性,贯彻分类分级监管原则,推动监管更加精准、高效、敏捷;另一方面是更好地衔接与推动《暂行办法》中构建的具体制度的实施,譬如《暂行办法》第4条规定的基于服务类型特点提高服务透明度和生成内容的准确性和可靠性,以及第17条规定的安全评估与算法备案制度等事前审查手段,都需要对AI进行分类分级以明确应当采取的措施和审查范围与方法,防止增加服务提供者负担,阻碍创新。

第三,《暂行办法》总则依然体现了“科技向善原则”,要求利用生成式AI生成的内容应当体现社会主义核心价值观,注重对算法、知识产权、商业道德和个人权益的保护,体现了对生成式AI的伦理要求。

在第二章技术发展与治理中,主要遵循坚持发展和安全并重、促进创新和依法治理相结合的原则,从鼓励生成式AI研发与应用创新和对生成式AI技术本身的要求出发做出了规定。

《暂行办法》第7条、第8条则规定了生成式AI服务提供者应保证数据来源的合法性和数据标注义务,结合公共训练数据资源平台的建设以及生成式AI技术发展的本质要求,不难看出,随着生成式AI的广泛使用,个人数据的收集、存储和处理变得非常普遍,因此,通过AI的源头数据赋能生成式AI大模型训练就显得非常必要,由此防范数据风险,则是坚持生成式AI发展与安全并存的关键所在。实践中由于公共数据维度丰富、使用场景广、覆盖用户主体多,且切实关乎人们的吃穿住行用,在平台建设过程中需要重点注意两个问题,一方面是保障数据安全,包括提升数据来源的真实性、可靠性,可以依托不同的应用场景开展训练数据工作;另一方面是完善数据基础制度,包括对公共数据的界定、公共数据分级分类等。

第三章服务规范着重于规定生成式AI服务提供者在生成式AI的应用环节应承担的责任,这也是与广大生成式AI服务使用者、消费者息息相关的一部分。服务规范章明确了生成式AI服务提供者应当依法承担网络信息内容生产者责任,体现了与《网络信息内容生态治理规定》的衔接,规定了服务提供者保护个人信息、科学引导和管理用户、生成内容标识、保障服务、违法救济措施、构建投诉举报机制等义务,细化了服务提供者责任。

需要注意的是,对于仅提供生成式AI服务和产品,而不实际参与研发的服务提供者,其是否有能力对生成式AI产品进行有效控制与实质合规,是否应同样承担网络信息内容生产者责任?或者是否有必要区分相对于普通用户而言的研发者与服务提供者在网络信息内容生成中的责任认定标准,以及采用怎样的责任承担比例,这一点还有待进一步细化。在实践中,由于算法黑箱与AI自主性的存在,技术中立原则已经难以成为免责的“避风港”,AI产品产生的侵权责任具有了多源性,应对网络信息内容生产者进行更加明确的界定,合理地设置责任承担范围。同时,也需要对个人信息处理者在生成式AI服务领域的认定进一步细化。

由于算法黑箱、算法隐层和AI相对自主性的存在,传统的监管方案与规则制度难免失灵或者说监管不及时,在监督检查和法律责任一章则在分类分级原则的基础上,与《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等规范相衔接,明确了安全评估与算法备案要求,强化了对数据来源、算法机制机理等内容的信息披露要求,以应对算法黑箱困境、提高AI的透明度。

然而,实践中AI算法的透明度并非越高越好,一方面,绝对的透明在AI自主性逐渐提高的弱AI时代,几乎是无法达到的技术要求;另一方面,AI算法机理等内容已经逐渐成为企业的核心资产,部分内容涉及商业秘密与专利权的保护,追求绝对的透明度对于生成式AI的发展并不可取,也并不符合国家支持鼓励创新的基本立场。因此,《暂行办法》增加了参与生成式AI服务安全评估和监督检查的相关机构和人员对国家秘密、商业秘密、个人隐私和个人信息的保密义务,平衡了对AI创新的保护与监管之间的张力。

纵观整部《暂行办法》,主要聚焦于事前规制,或者说是预防性监管,对生成式AI服务产生不当内容后如何进行解决,《暂行办法》并未提供有效解决办法。这在一定程度上讲《暂行办法》更多的是在聚焦发展目标,很多监管要求和责任都是在现有法律法规基础上的场景化,即通过立法衔接和对照来规范生成式AI发展中的具体问题,而对生成式AI产品和服务本身引发的责任还需要明确和细化,目前强调的仍然是规范在先,防患未然。

譬如,在征求意见稿中,曾提出“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成”,这一条在内容上是对事后规制缺失的补足,但是基于需要判断的内容过于复杂,“3个月”是否为恰当整改期限难以确定等因素,该条最终并未写入《暂行办法》,这一点还需要在实际运行一段时间后再予以补充或者另行规定,抑或是利用现有法律体系来应对生成式AI服务的法律责任的认定与承担。

(陈兵系南开大学竞争法研究中心主任、法学院副院长、教授,数字经济交叉科学中心研究员;董思琰南开大学竞争法研究中心研究助理)

0000
评论列表
共(0)条