天天看点

人工智能内容安全不能忽视

作者:检察风云

文/本刊记者 张宏羽

人工智能是数字经济发展的前沿和焦点,更是新一轮科技革命和产业变革的核心驱动因素。人工智能的应用场景愈发多元化,正深度赋能各行业智能化、数字化转型。近期,人工智能产品ChatGPT备受关注,其主要功能是与用户对话,能够识别语音和文本、理解意图、识别特定语言的习语和格言,根据用户需求生成内容、协助代码编写。该产品上线仅2个月,活跃用户就已突破1亿人次。有业内人士表示,新技术变革着内容的生产方式,爆发新增长能量。

人工智能内容安全不能忽视

其实,以ChatGPT为代表的“生成式AI”在国内并不是很罕见,研发、运营“生成式AI”平台的人工智能企业不在少数。在十四届全国人大一次会议的首场“部长通道”上,科学技术部部长就谈到ChatGPT——同样一种原理,在于做得好不好。

2022年,注册在上海张江的国内首家“生成式AI”平台“TIAMAT”,宣布完成数百万美元天使轮融资,当时该平台内测高活跃用户数千人、月度新增数万人,社区用户涵盖国内设计、艺术创作、多模态技术等头部博主——这只是大陆AI数字商业内容产业发展的一个缩影。《中国AI数字商业展望2021—2025》预测,到2025年,中国AI数字商业核心支柱产业链规模将达到1853亿元,其中AI数字商业内容产业规模将达到495亿元。

然而,在“生成式AI”热潮的背后,也包含着重重隐忧:内容安全、数据风险、伦理压力……在ChatGPT“爆火”之后,有人大代表、政协委员提交了议案提案建言与社情民意信息。“新技术也许会带来一百种好处,但我们必须关注其产生的哪怕一种危害。”上海市浦东新区政协委员、上海数字产业发展有限公司总经理聂影表示,在呼吁拥抱新变化的同时,必须正视背后存在的问题。

警惕它变成“谣言炮制机”

尽管“生成式AI”进一步释放了内容生产的潜能,成为产业变革的重要驱动力,但无论是国内还是国外,“生成式AI”的局限性始终较为明显,即无法核实信息的真实性,易被网络中的虚假信息误导、煽动。对人工智能生成内容的安全治理极为迫切。

记者亲身体验过几款“生成式AI”后发现,在人工智能的生成内容中,经常出现真假答案混答的现象,且存在着不少常识性错误和虚假信息。近期不少媒体报道亦能佐证此类情况——2月中旬,网络疯传一条关于杭州市政府3月1号取消限行的“新闻稿”。经媒体调查发现,这是一条不实新闻——杭州某小区业主群里讨论ChatGPT时,一位业主开玩笑说尝试用它写篇杭州取消限行的“新闻稿”。随后该业主在群里“直播”了ChatGPT写作过程,还将文章发至群里。该“新闻稿”被不明所以的业主截图转发。

北京盈科(上海)律师事务所互联网法律事务部主任谢连杰向媒体表示,ChatGPT对信息、数据来源无法进行事实核查,可能存在提供虚假信息等隐患,用户需要具备一定的专业知识才能辨别信息的真伪。也可能有不法分子恶意“训练”人工智能,使其提供诈骗信息、钓鱼网站等内容。

人工智能内容安全不能忽视

记者发现,国内多家媒体平台已宣布接入百度“文心一言”,成为其“生态合作伙伴”。据悉,“文心一言”是百度基于文心大模型技术推出的“生成式”对话产品,拥有产业级知识增强文心大模型ERNIE,具备跨模态、跨语言的深度语义理解与生成能力,在搜索问答、内容生成、智能办公等众多领域都有更广阔的想象空间。

智能对话技术成果应用在新闻媒体领域,固然具有划时代的意义,但亦有专家提醒,人工智能学习和生成内容的主题、知识、导向可能会有被操纵的风险,且有很强的隐蔽性。其一旦被运营者、境外势力等操纵,存在较大安全隐患,将对社会发展和国家安全带来风险。

封面新闻数据研究部总监王子健建议,仅以AI辅助创作,并且严格执行三审三校流程。中国传媒大学信息科学与技术学部专职副学部长、互联网信息研究院副院长曹三省表示:“媒体在使用ChatGPT时要注意规避时政、意识形态等领域的内容。”

此类乱象已被初步纳入大陆法律规制的范围:自2023年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。

别被仇恨和歧视带偏

现阶段的“生成式AI”,虽然具有生成类似于人类对话的文本的能力,但是并没有相同的能力来理解它生成的文字的上下文语境。这导致“生成式AI”可能会出现一些具有攻击性、诽谤性的内容。据报道,2016年3月,微软发布了一款聊天机器人,但上线不到一天,这款聊天机器人就被“带偏”成为鼓吹“种族清洗”的“极端分子”,后被迅速下架。

剑桥大学的一名人工智能研究员曾表示,AI是根据从公开来源(包括网站和社交媒体)获取的数千亿个单词进行训练的。这些文本反映了人类的偏见,AI学会了“复制”。虽然理论上可以过滤,但成本高昂、操作困难。

清华大学交叉信息研究院的一个研究团队发布的研究结果显示,“生成式AI”会出现性别歧视。在包含职业词汇的“中性”句子中,由AI预测生成一万个模板,再统计AI模型对该职业预测为何种性别的倾向,结果显示:有70.59%的概率将“教师”预测为男性,64.03%的概率将“医生”预测为男性。

据《中国妇女报》报道,在近年的新闻中,关于AI伦理和AI歧视的话题屡见不鲜,其中包括针对女性的歧视:使用谷歌图片搜索时,“CEO”的结果几乎全部是男性;翻译软件总是将“医生”视作为男性,而将“护士”视作女性。

于是乎,“生成式AI”陷入“怪圈”:AI生成的部分内容源于人类社会中一直存在的仇恨和歧视,这部分内容从某种程度上讲又放大、加剧了现状。

怎样训练出符合公序良俗的AI呢?清华大学交叉信息研究院的学者于洋表示,这是一个应当关注的技术问题。一方面可以出台AI合规的标准和评估方法,控制风险率;另一方面要重视、鼓励合规技术的发展。值得一提的是,对于AI产品要有一定的容错性,不能因为出现了一两个不符合公序良俗,甚至是违规违法的内容,就把整个模型禁掉。如果我们不能容忍AI出一点错,那么AI永远不能被应用在经济生活中。

人工智能内容安全不能忽视

内容治理任重道远

世界范围内,对人工智能生成内容的监管发展,相对滞后于技术应用研发。人工智能生成内容的安全治理是长期、持久、系统的工程,有待进一步革新治理理念、完善管理制度、优化监管模式——尤其是对于重点应用场景的监督。

在教育培训领域,“生成式AI”可以提供在线学习资源,并与学生进行对话。这种交互方式能够帮助学生在学习过程中获得更好的支持和指导,也能够为教师提供工具和资源,帮助其改善教学方式。但不可忽视的是,我们应对人工智能介入课程的内容和质量进行把关,杜绝违规内容、虚假信息、营销导向干扰正常的教育教学工作。明确人工智能不能替代教师教学,对于人工智能生成内容,应要求教师向学生进行必要的解释和引导。此外,引入第三方对人工智能介入的课程进行监测与评价,也不失为一种选择。

大陆正不断推进“互联网+政务服务”。在政务服务的场景中,我们应对介入其中的人工智能技术进行审查与合规性改造。在人工智能提供的服务之外,可以配备人工在线咨询服务渠道。

在监督管理之外,通过适当的教育引导提升社会公众的媒介素养尤为重要。对于“一老一小”特殊群体,亟须通过媒介素养教育,避免其被虚假信息、错误观念误导。

对于老年群体,应扩大互联网方面的优质老年教育资源供给,引导老年人正确地获取、搜寻、分析信息;发挥传统媒体在老年群体中影响力,宣传网络安全知识;鼓励企业在产品中融入“适老化”设计,方便老年人获取信息。

对于学生群体,鼓励增加更多元的媒介素养课程内容,帮助学生认识人工智能,指导学生找到适合自身的信息获取方式。同时将思想政治教育、社会实践同媒介素养教育相结合,培养学生求真、求证、求实的态度和能力,引导其自觉践行文明自律的网络空间道德。

继续阅读