天天看点

算法治理系列观察(一)丨从ChatGPT谈生成合成类算法

作者:中伦律师事务所

#算法治理#

算法治理系列观察(一)丨从ChatGPT谈生成合成类算法

本文以ChatGPT为切入点,聚焦其背后的生成合成类算法技术,并对中国法项下的相关合规关注要点进行简要梳理。

作者丨李瑞 贾申 徐晨

引言

ChatGPT发布短短两个月已吸引了达1亿的活跃用户,成为全球现象级的应用。ChatGPT及其代表的大型语言模型(Large Language Model, “LLM”)、生成式AI技术(Generative AI) 和算法应用对于各个行业的快速渗透造成了强烈的冲击,带来了复杂的反应,这让ChatGPT看起来既可能是人工智能应用里程碑式的杰作,又可能是充满未知甚至带来恐惧的“迷雾”。

在ChatGPT爆火的影响之下,很多科技公司加快了开展相关产品研发和投放的步伐,从法律合规的角度,如何合规落地类似的产品是一个值得关注的问题。带着这样的思考,本文以ChatGPT为切入点,聚焦其背后的生成合成类算法技术,并对中国法项下的相关合规关注要点进行简要梳理。

一、ChatGPT背后是什么算法?

算法是人工智能(AI)应用的一大核心与基础,因此对人工智能(AI)的监管离不开对于算法的规制。纵观全球,一些主要的法域早已纷纷开始加强这一领域的立法,例如,美国先后出台了《算法问责法案(草案)》(Algorithmic Accountability Act of 2022)《过滤气泡透明度法案(草案)》(Filter Bubble Transparency Act)等。

中国采取算法专门立法,算法技术分类管理的方式进行规制。2021年,国家互联网信息办公室(下称“国家网信办”)、工业和信息化部、公安部及国家市场监督管理总局联合发布《互联网信息服务算法推荐管理规定》(下称“《算法推荐管理规定》”),将算法推荐技术主要分为生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等。其中生成合成类算法可以理解为利用以深度学习、虚拟现实为代表的生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的技术。

对于ChatGPT而言,深度学习正是其进行训练的关键所在。GPT技术的全称为Generative Pre-trained Transformer,即用生成式方法预训练的Transformer,而Transformer本身则是目前最为先进的深度学习模型之一。因此,笔者理解,如果依据大陆目前算法监管的框架来划分,ChatGPT属于使用了深度合成技术的生成合成类算法。

除了ChatGPT,生成合成类算法还有多种其他的应用场景。从我们身边已经较为广泛应用的语音合成工具、声音模仿、美颜换脸、画质修复等,到仍在开发落地中的数字孪生、3D建模、游戏引擎等都有生成合成类算法的身影。

算法治理系列观察(一)丨从ChatGPT谈生成合成类算法

图一:生成合成类算法应用之美颜App

二、生成合成类算法规制框架

由于深度合成技术本身较为敏感,且可能造成的后果影响较大,国家网信办联合各部门在《算法推荐管理规定》的基础上,于2022年11月25日又进一步公布了《互联网信息服务深度合成管理规定》(下称“《深度合成管理规定》”)。 《深度合成管理规定》采取了角色划分的方式来明确产业链中相关企业的合规义务,即(1)深度合成服务技术支持者、(2)深度合成服务提供者和(3)深度合成服务使用者应遵守使用深度合成技术的一般性合规义务,也应遵循符合自身角色的特殊要求。

算法治理系列观察(一)丨从ChatGPT谈生成合成类算法

图二:深度合成技术服务应用链条下的角色分类

除了《算法推荐管理规定》《深度合成管理规定》这两个针对性法规外,开发使用生成合成类算法的企业还应注意其他所涉的专门法。基于算法技术本身的特点及目前的监管态势,企业应着重关注数据合规、内容治理及反垄断合规领域的要求。整体而言,算法合规管理的义务贯穿算法开发、测试和使用的全生命周期:

  • 数据合规:生成合成类算法的训练与应用不可避免需要使用到大量数据,因而需遵循《数据安全法》《个人信息保护法》等数据安全治理相关的法律法规。
  • 内容治理:在应用生成合成类时,企业应注意落实《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等法规中所明确的内容审查与管理义务。
  • 反垄断合规:算法开发及应用时,还需注意避免涉及《反垄断法》《国务院反垄断委员会关于平台经济领域的反垄断指南》等中所明确禁止的歧视待遇、滥用市场支配地位等行为。

三、生成合成类算法合规要点提示

基于上述的监管框架与近期的执法态势,我们总结了开发使用生成合成类算法的一些主要合规义务要点,以供企业在搭建算法合规管理体系时作为框架性的参考:

1、数据采集使用的合法性与安全性

如前文提到的,数据是算法成功运行的关键性要素,在测试及使用环节都需要大量的数据输入,因此企业应特别注意数据采集与使用的合法性,尤其是:

  • 注意落实《个人信息保护法》中所明确的告知-同意原则与最小必要原则,避免违法采集和/或超采滥采;
  • 提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意;
  • 在使用环节,生成合成类算法应特别注意进行自动化决策等特殊数据处理场景下的合规义务履行,如进行个人信息保护影响评估等。

2、配合履行行政监管手续

  • 如触发算法备案要求,企业需履行算法备案和变更和注销备案等手续,并在完成后在其对外提供服务的网站、应用程序等的显著位置标明其备案编号并提供公示信息链接。
  • 企业还应依法对监管问询、调查等予以配合,并提供必要的技术、数据等支持和协助,在有较大信息安全风险的场景下按照要求采取措施,进行整改,消除隐患。

3、搭建实名认证流程

企业应当基于移动电话号码、身份证件号码、统一社会信用代码或者国家网络身份认证公共服务等方式,对深度合成服务使用者进行真实身份信息认证,不得向未进行真实身份信息认证的使用者提供信息发布服务。

4、用户保护与提示

  • 对于智能对话、智能写作、合成人声、仿声、人脸生成、人脸替换、人脸操控、姿态操控等服务,应在产品在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
  • 此外,企业应当设置便捷的用户申诉和公众投诉、举报入口,公布处理流程和反馈时限,及时受理、处理和反馈处理结果。

5、算法安全性的定期审核与评估

企业应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等以对算法的安全性、透明性进行动态的管理,避免出现算法歧视等情况。尤其是算法涉及生成或者编辑人脸、人声等生物识别信息的,和/或生成或者编辑可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息的,建议企业严格落实安全评估的要求,并及时进行整改。

6、内容审查与管理

企业应加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。发现违法和不良信息的,应当依法采取处置措施,保存有关记录,及时向网信部门和有关主管部门报告。在需要时,还应对相关深度合成服务使用者依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施。

7、合规管理要求

深度合成服务提供者应加强内部建章立制的工作,落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,并确保具有安全可控的技术保障措施。

总结

算法技术的发展和应用对于社会进步的重要性毋庸置疑。与此同时,我们也相信算法无法凭空创造不存在的知识与洞见。正如电影《流浪地球2》中的那句台词所说,“没有人的文明毫无意义”。技术发展与合规监管双轨并行,共同推动算法科技向善,相信这也是大多数人的愿景。

纵观全球,中国是较早对于算法技术开展系统化规制的法域,从算法分类、算法备案、数据安全义务到内容治理等规制,都对所有投身中国市场且广泛使用算法的企业提出了较高的要求。除了企业本身的合规治理外,算法在应用的过程中更存在着平台责任、救济手段、科技伦理等更为复杂的命题。我们将在算法治理观察系列文章中,聚焦最新的立法与司法实践,带来兼具深度和广度的分析与解读。

特别声明

以上所刊登的文章仅代表作者本人观点,不代表北京市中伦律师事务所或其律师出具的任何形式之法律意见或建议。

如需转载或引用该等文章的任何内容,请私信沟通授权事宜,并于转载时在文章开头处注明来源于公众号“中伦视界”及作者姓名。未经本所书面授权,不得转载或使用该等文章中的任何内容,含图片、影像等视听资料。如您有意就相关议题进一步交流或探讨,欢迎与本所联系。

继续阅读