天天看点

深度合成、算法、AIGC监管与人格权保护(33):AIGC伦理问题

作者:YunfangW

AIGC伦理风险与治理

前天看了人工智能伦理与伦理风险审查,昨天看了算法规定、深度合成规定及具体应用领域监管规则中与算法伦理与风险治理相关的问题,今天看一下AIGC相关的伦理准则与风险治理问题。

《生成式人工智能服务管理办法(征求意见稿)》第4条在深度合成规定第4条基础上要求“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗”,其中:

  • “尊重社会公德、公序良俗”和深度合成规定中要求提供深度合成服务时尊重的“社会公德和伦理道德”有一定差异,公序良俗、伦理道德、商业道德在具体法律规范层面需要做区分。
  • 然后以列举方式提出具体要求,其中包括与算法、模型、生成内容等相关的伦理道德方面的要求:

第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:

(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。

(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。

(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。

(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。

  • 其中第(一)项对生成内容提出引导性要求,即要求生成内容体现社会主义核心价值观;第(二)项要求主体采取措施以防止在算法设计、训练数据选择、模型生成和优化、提供服务等过程中出现歧视问题;第(三)项要求主体尊重商业道德,不得利用算法、数据、平台等优势实施不正当竞争;第(四)项要求主体采取措施,预防利用AIGC技术生成虚假信息;第(五)项涉及人格权、商业秘密、知识产权方面的保护。
  • 第(一)、(四)项的要求在《网络信息内容生态治理规定》以及互联网新闻服务等专门法律规范中有更为详细明确的要求;第(二)项“不歧视”落入人工智能伦理规则范围;第(三)项涉及商业道德方面的要求,商业道德在法律规范层面一般是指营利性主体应当遵守的规范,与“伦理道德”有差异。

除了第4条,《办法》征求意见稿在第10条提出普遍适用的防沉迷要求,在第12条提出反歧视要求:

  • 第十条 提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。
  • 第十二条 提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。

如果说前述规定主要是针对AIGC产品/服务提供者自身在科技活动、服务提供过程中提出合法合规、尊重伦理道德方面的要求,第18-19条就进一步从网络空间生态治理等考虑出发,要求提供者引导用户科学认识和理性使用新技术新应用,不仅在用户出现违法违规行为时及时采取措施,用户出现有违伦理道德准则的情况时,也需要采取措施:

  • 第18条第1款规定“提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销”;
  • 第19条规定“提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务”;
  • 除了对用户采取暂停或终止服务的措施,提供者自身也要依据第15条要求采取内容过滤、模型优化训练等措施,以防止再次生成。即“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成”。

这个系列开始时,我们对《办法》征求意见稿存在的问题,尤其是与已有监管规则体系衔接的问题做过分析,提出对于AIGC相关经营者来说,比较稳妥的做法是1)结合具体业务领域以及风险事项,识别应适用的法律法规以及部门规章,用于指导业务实施;2)在此基础上引入算法规定、深度合成规定、《办法》征求意见稿中有关程序性的指引,完善内部合规准则。AIGC伦理风险评估与审查也不例外,前述列明的伦理道德类规则并未超出具体业务领域已有规则范围。

科技伦理审查办法的指引

结合《科技伦理审查办法(试行)》征求意见稿来看,和前两天分析的人工智能伦理与风险治理、算法伦理与风险治理问题一样,AIGC领域的伦理准则、伦理风险等级划分及相应措施都有待立法进一步明确,但可以明确的是,AIGC相关科技活动应当严格遵循包括数据安全法、网络安全法、个人信息保护法、未成年人保护法等已有法律法规及部门规章的要求;同时要考虑立法在预防性措施方面的要求:

  • 算法规定、深度合成服务规定本身就已经对具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统,以及面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统提出安全评估、备案方面的要求。
  • AIGC监管办法正式生效文本如果未对征求意见稿第6条进行修改,利用生成式AI产品向公众提供服务前就应当进行安全评估和算法备案:

1)按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估(涉及互联网信息信息服务的,按《互联网新闻信息服务新技术新应用安全评估管理规定》执行);

2)按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

  • 前述评估主要涉及安全评估,《科技伦理审查办法(试行)》落地实施时如果没有对现有附件清单进行调整,具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发活动,以及面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发活动,作为伦理高风险事项就要经过研发主体内部评估和外部专家复核双重校验。

目前监管部门已经调整优化了涉及人的生命科学和医学研究相关的科技伦理审查办法(参考2023年2月18日发布的《涉及人的生命科学和医学研究伦理审查办法》),人工智能领域科技伦理审查办法还有待明确。虽然各地具体做法可能会有所差异,但预计对于新技术的应用发展总体上还是会采取包容审慎的监管态度。

比如北京昨天发布的《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》要求持续加强科技伦理治理,并提出建设科技伦理治理公共服务平台、开展科技伦理审查及相关业务培训等具体措施,在加强网络安全、数据安全防护和个人数据保护的基础上,探索营造包容审慎的监管环境。

从现有科技伦理治理相关的规则来看,监管希望积极引导研发主体、服务提供者:

  • 加强对人工智能研发活动的自我约束,避免使用可能产生严重消极后果的不成熟技术;
  • 确保人工智能研发过程的算法安全可控,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖;
  • 提升人工智能研发过程的数据质量,提升数据的完整性、及时性、一致性、规范性和准确性;
  • 充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

对于企业来说,法律法规规章的要求相对是明确的,如何将监管指引性规则,尤其是伦理道德准则转化为企业技术研发和商业经营中的规则,就是一个比较复杂的问题:

  • 从早期关于头条、短视频平台推荐算法应用的争议,大数据杀熟,到近期AI一键脱衣、AI换脸等引发的讨论,研发主体以及服务提供者在深度合成、人工智能等技术研发以及应用、服务上线前进行科技伦理审查的必要性并不难理解。
  • 难点在于伦理、伦理风险的定义及等级划分、相应措施相关的监管规则不明确本身就是风险。比较稳妥的做法是避免使用“明显”违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,避免使用“明显”可以预见会导致人格权侵权、知识产权侵权的技术及相关应用,避免使用“明显”可能会导致网络信息内容发布与传播失控的技术及相关应用。
  • 强调“明显”是因为涉及伦理道德方面的判断相对复杂,虽然这类要求散见于已有法律法规,即了数据安全法、网络安全法、个人信息保护法以及专门领域相关的法律法规,但法律法规中伦理道德类要求本身就存在法律适用与法律解释问题,只能通过程序性保障+一般理性人判断标准降低风险。

技术法规

此外,由于立法与监管规则相比技术开发与应用有其滞后性,行业自律准则和技术法规对伦理风险治理就尤为重要,尤其是技术法规。技术法规是将法律规范转化为技术语言必不可少的一环,企业可以考虑在已有数据、个人信息与隐私等风险管理体系基础上,参考已有技术法规的指引,建立本企业适用的伦理风险等级划分与风控机制。

感兴趣的话可以参考阅读以下标准与报告:

  • ISO/IEC AWI TS 6254 《信息技术-人工智能-机器学习模型和人工智能系统可解释性的目标和方法》 (Information technology — Artificial intelligence — Objectives and approaches for explainability of ML models and AI systems)
该标准阐述了机器学习模型和人工智能系统可解释性的内涵及不同利益相关方对于可解释性的目标,列举了实现可解释的途径及人工智能系统生命周期中需要考量的有关可解释性的因素。
  • ISO/IEC 23894:2023 《信息技术-人工智能风险管理指南》 (Information technology — Artificial intelligence — Guidance on risk management)
在人工智能伦理的风险管理方面,该标准涉及以下内容:不同主体应考虑的针对人工智能产品设计和应用等过程中的有关伦理问题;进行个人隐私信息的收集、保存和使用时需要充分考虑尊重人类价值和人类尊严方面的伦理原则;在技术细节方面需要关注可能导致产品存在伦理问题的风险,例如在训练模型中如果使用了错误的数据或者带有偏见的数据。
  • 国家人工智能标准化总体组下设的人工智能与社会伦理道德标准化研究组发布的《人工智能伦理风险分析报告》,在对人工智能伦理准则进行梳理的同时,提出了相应的评估方法;《人工智能伦理与社会关注国际标准研究》。
  • 工信部、国家标准委、中央网信办、发展改革委、科技部于2020年8月5日联合发布的《国家新一代人工智能标准体系建设指南》,其中涉及“安全/伦理”相关的人工智能标准体系建设规划与目标。
  • 全国信标委人工智能分委会发布的《人工智能可信赖标准化白皮书》,对人工智能伦理符合性原则进行介绍并提出评价指标。
  • T/CESA 1193—2022 《信息技术 人工智能风险管理能力评估》规定了人工智能产品的风险管理能力评估体系及评估流程,提出多项关于人工智能伦理的规范,包括要求组织成立伦理委员会对伦理风险进行专门管理。
  • 全国信息安全标准化委员会2021年1月发布的《网络安全标准实践指南—人工智能伦理安全风险防范指引》。
  • ……