天天看点

生成式人工智能来了,如何保护未成年人

作者:贴近地面飞行

  为了应对强大的生成式人工智能的迅猛发展,联合国教科文组织于今年5月25日首次就此议题举行了全球教育部长会议。全面客观地分析生成式人工智能前所未有的发展机遇和风险挑战,是保障未成年人健康成长亟待解决的时代命题,也是落实未成年人保护和发展的关键一环。

生成式人工智能来了,如何保护未成年人

  在《科学》发布的2022年度科学十大突破中,生成式人工智能(AIGC)赫然在列。生成式人工智能表现出了极强的逻辑推理和再学习能力,能够更好地理解人类需求,突破了自然语言处理的瓶颈,重塑了社会知识生产体系、人才培养体系、商业模式、社会分工体系等,为社会各领域带来了巨大的发展机遇,同时也面临着严峻的风险。目前,未成年人已经以多种方式与人工智能技术进行交互,这些技术往往被嵌入到玩具、应用程序和视频游戏中,不知不觉影响着未成年人的健康成长。未成年人由于心智、认知能力等尚未发展成熟,极易受到智能化环境的影响。因此,全面客观地分析生成式人工智能前所未有的发展机遇和风险挑战,是保障未成年人健康成长亟待解决的时代命题,也是落实未成年人保护和发展的关键一环。

  生成式人工智能带来的机遇和挑战

  在发展机遇方面,人工智能技术是引导未成年人学习教育的工具,依托生成式人工智能技术将使教育更有针对性、更具成效。生成式人工智能可以弥合教育中的个体差异和区域差距,推动教育资源的普惠公平,一定程度上缩小个体和区域间的数字鸿沟。生成式人工智能还将促进未成年人创新创意的能力提升。例如,大模型进一步降低使用低代码和无代码开发工具的门槛,并可能诞生一类全新的智能开发技术。

  生成式人工智能也会为未成年人带来认知、思维、行为能力等方面的挑战。一是虚假信息泛滥问题。如何不断提高事实的准确性,亟待技术上的突破。二是数据泄漏问题。目前,数据泄漏已导致一些用户的对话数据和相关信息丢失。尤其需要注意的是,生成式人工智能应用目前缺失系统验证用户年龄的设计,有可能使未成年人暴露于“与其年龄和意识完全不相称”的内容下,对其身心健康产生不良影响。三是内嵌的算法歧视问题。生成式人工智能给予的一些答复存在性别歧视和种族歧视现象,可能会误导使用者,将具有歧视性的回答视为“正确答案”而作出错误决断,从而对社会认知和伦理产生负面影响。特别是在处理算法包容性的问题上,由于中西文化的根源及演进路径不同,还会涉及对传统文化和现实观照之间的解读、评价及传播的问题,这些都可能会在生成式人工智能技术中被忽视或被特意放大。四是知识产权侵犯问题。无论是图像还是文字大模型,其实都有不少版权相关的风险隐患,训练数据可能侵犯他人的版权,比如新闻机构、图库商的权益。对于作品被用于人工智能生成的歌曲、文章或其他作品的内容创作者如何得到补偿,目前还没有特别合适的破解之道。如果原创者的版权难以保证,将不利于人工智能内容生态的可持续和健康发展。五是数字鸿沟问题。大模型的语言性能在英文和中文上存在较大差异,明显对于英文语境下的写作、表达和理解普遍更好。中英文语系的差异加上数据马太效应,可能会使得差距越来越大。六是网络安全风险问题。如对自残行为的建议或鼓励,色情或暴力内容等图形材料,骚扰、贬低和仇恨的内容等。

  应对生成式人工智能的CI-STEP体系

  2020年9月,联合国儿基会发布了《人工智能为儿童——政策指南》的征求意见稿,提出了儿童友好的人工智能应当遵循的三大原则:保护,即“不伤害”;赋能,即“为善”;参与,即“全纳”。2021年11月,联合国儿基会发布了《关于建立维护儿童权利的AI政策和系统的建议2.0》,提出了AI维护儿童权利的三个基础:人工智能政策和系统应旨在保护儿童;应公平地满足儿童的需求和权利;应授权儿童为人工智能的开发和使用做出贡献。AI技术如何为未成年人的当前和未来发展创造有利环境成为全球讨论的热点话题。随即,中国、美国、欧盟、英国也陆续出台相关法律法规,进一步规范和完善面向未成年人的人工智能技术管理办法。

  依据皮亚杰儿童智力发展的阶段性理论和科尔伯格的道德发展阶段论,结合大陆的相关法规政策依据——《中华人民共和国个人信息保护法》《中华人民共和国网络安全法》《中华人民共和国数据安全法》等,以及美国、欧盟、英国等国家和地区的相关政策文件,北京师范大学新闻传播学院未成年人网络素养研究中心发布全国首个生成式人工智能未成年人保护和发展评估(CI-STEP)指标体系,为生成式人工智能的未成年人保护工作提供重要的参考与评估指标(见下图)。

生成式人工智能来了,如何保护未成年人

  该指标模型具体包括综合管理(Comprehensive management)、信息提示(Information cue)、科学普及和宣传教育(Scientific popularization and publicity education)、技术保护(Technical protection)、应急投诉和举报机制(Emergency complaint and reporting mechanism)、隐私和个人信息保护制度(Privacy and personal information protection system)六大维度,每个维度下包含2~3项具体指标,共计15项评估指标,以期为维护未成年人权益提供科学、全面的评估理念和实践指导。

  一是在综合管理方面,包括时间管理、权限管理和消费管理。时间管理是根据未成年人社交、场景、用途等确定合理和适度的上网时间,落实防沉迷要求。权限管理是设立检查年龄的验证机制,根据系统设置的安全规则或者安全策略,未成年人可以访问而且只能访问自己被授权的资源。消费管理是生成式人工智能产品或服务应禁止不公平和欺骗性的商业行为,采取必要的保障措施来限制偏见和欺骗,避免对企业、消费者和公共安全带来严重风险。

  二是信息提示,包括私密信息提示、适龄提示和风险提示。私密信息提示是对未成年人通过网络发布私密信息的,应当及时提示,并采取必要的保护措施。适龄提示是生成式人工智能产品或服务提供者应当按照国家有关规定和标准,对人工智能产品进行分类,作出适龄提示,并采取技术措施,不得让未成年人接触不适宜的产品或者服务。有的生成式人工智能提供者要求用户必须年满18周岁,或年满13周岁并在父母同意的情况下才能使用AI工具,但目前验证选项和落实机制亟待完善。风险提示是生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,对可能存在的诈骗、暴恐、欺凌、暴力、色情等不法内容,偏见歧视及诱导信息等进行提示。

  三是科学普及和宣传教育。生成式人工智能产品或服务提供者在技术上处于领先位置,应为未成年人相关的主题教育、社会实践、职业体验、实习考察等提供支持,并结合行业特点,组织开展未成年人科学普及教育和创新实践活动。

  四是技术保护,包括真实身份信息注册、不良信息过滤、网络安全等级保护。按照《中华人民共和国网络安全法》等规定,要求用户提供真实身份信息。生成式人工智能产品或服务提供者发现用户发布、传播含有危害未成年人身心健康内容信息的,应当立即停止传播相关信息,采取删除、屏蔽、断开链接等处置措施。生成式人工智能产品或服务提供者应当按照网络安全等级保护制度的要求,履行安全保护义务,保障网络免受干扰、破坏或者未经授权的访回,防止网络数据泄露或者被窃取、篡改。

  五是应急投诉和举报机制。生成式人工智能产品或服务提供者应建立用户投诉接收处理机制,公开投诉、举报方式等信息,及时处置个人关于更正、删除、屏蔽其个人信息的请求,并制定网络安全事件应急预案,及时处置系统漏洞、计算机病毒、网络攻击、网络侵入、数据投毒、提示词注入攻击等安全风险;在发生危害网络安全的事件时,立即启动应急预案,采取相应的补救措施。

  六是隐私和个人信息保护制度。生成式人工智能产品或服务提供者应明确个人信息收集使用规则、如何保护个人信息与个人权利、如何处理未成年人的个人信息、个人信息如何在全球范围转移、隐私政策如何更新等制度规则。生成式人工智能产品或服务提供者不得使用数据来销售服务、做广告或建立用户档案,在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人信息的请求,防止损害肖像权、名誉权和个人隐私,禁止非法获取、披露、利用个人信息和隐私。(社会科学报社融媒体“思想工坊”出品 全文见社会科学报及官方网站)

继续阅读