天天看点

ChatGPT等生成式人工智能:过去、现在和未来的思考

作者:程浩How

生成式人工智能(ChatGPT等工具)如今引发了全球人工智能的热潮。但我们如何应对这种生成式人工智能所带来的多重挑战呢?

最近,在复旦大学建校118周年相辉校庆系列学术活动中,复旦大学国家智能评价与治理实验基地副主任、大数据研究院教授赵星与浙江大学公共管理学院研究员蒋卓人合作,带来了一场关于生成式人工智能过去、现在和未来的思考盛宴。

ChatGPT等生成式人工智能:过去、现在和未来的思考

生成式人工智能的过去和现在

蒋卓人强调:“生成式人工智能并非一蹴而就,它有着悠久的历史渊源。”在生成式人工智能发展的90多年历程中,人类智慧一直在闪耀。

1932年,法国工程师Georges Artsrouni创造了一台名为“机器大脑”的装置。它通过查询多功能词典完成翻译,输入和输出都是一条纸带。尽管与今天的机器翻译不同,但它符合人们对生成式人工智能的定义,即人类输入一段内容,机器生成一段新的内容。

之后,美国麻省理工学院的两位教授创建了最早的生成式人工智能之一,并引入了贝叶斯网络因果分析概念,展示了如何利用卷积神经网络来识别图像。

2006年,华裔计算机科学家李飞飞着手构建了名为ImageNet的数据库。该数据库包含超过1400万张手工标注的图片,涵盖2万多个类别。“正是有了这样一个庞大的数据库,深度学习才得以崛起。”蒋卓人表示。

ChatGPT等生成式人工智能:过去、现在和未来的思考

ChatGPT为何成为明星产品?

ChatGPT拥有1750亿个参数和3000亿个训练单词,这是它的数据量。自2022年发布以来,仅仅两个月时间,ChatGPT就吸引了超过1亿用户,成为有史以来增长最快的应用。

蒋卓人认为,要理解ChatGPT,就要了解它的关键技术:大模型基础训练、指令微调和人类反馈强化学习。

“大模型指的是大型语言模型。”蒋卓人解释道,“它是一种概率模型,可以告诉你一个词出现的概率。一个优秀的语言模型能够准确预测下一个词是什么。”

在具备良好的语言理解能力基础上,为了让ChatGPT能够与人类进行对话,研究者提出了指令微调,通过引入思维链和代码生成来提升大模型的推理能力。

“这种能力对于大模型来说至关重要,使得它能够在开放领域表现出色。”蒋卓人说道。

通过这些技术,大模型基本具备了回答指令的能力,但回答的质量不一。为了让大模型持续输出高质量的回答,研究者设计了一套基于人类反馈的强化学习方法,通过微调大模型、训练奖励函数和进行大规模强化学习的优化,确保生成高质量的回答。

“开放式人工智能就是使用这种方法,大幅降低了数据集构建的成本。”蒋卓人表示。

ChatGPT等生成式人工智能:过去、现在和未来的思考

新智能带来新挑战

面对生成式人工智能带来的挑战,赵星从资源、技术、应用和社会伦理四个维度进行了解读。

从资源的角度来看,生成式人工智能需要高质量的数据,而中文数据的质量较英文数据差。赵星认为,即使具备强大的翻译能力,类似ChatGPT的中文工具在处理效果上也明显不如英文,其中一个核心原因是中文数据的质量较差。

“科技界曾将人工智能的应用比作炼金术。”赵星开玩笑说道,“人们把数据一股脑地投入模型中,却没有明确的预期,不知道能否炼出有价值的东西。”

显然,在技术层面上,生成式人工智能存在内在的不确定性。

“当我们准备向全社会推广一种通用工具时,却不明确它的科学原理,就会面临内在的风险。人工智能最核心的风险在于其结果的不可承受性。我们在治理问题上很少有如此无力的状态。”赵星表示。

在应用层面上,生成式人工智能的产业发展具有确定性,而风险治理却存在不确定性。在社会伦理方面,生成式人工智能不仅存在知识产权纠纷和信息泄露的风险,还可能塑造真正的信息封闭空间。

“当生成式人工智能24小时陪伴在你身边时,会潜移默化地让你认为一切都是自己决定的。”赵星警示道,“我们面临的是一个会迅速崛起的事物,可能带来严重后果且后果未知。”

ChatGPT等生成式人工智能:过去、现在和未来的思考

内在安全治理:让危机“已知”

赵星认为,面对这个新对手生成式人工智能,不能采用传统治理“被动回应外部威胁”的方式。他的团队正在致力于构建生成式人工智能治理的新模型,借鉴了复旦大学大数据研究院院长邬江兴院士提出的“内在安全理论”。

“我们是否能在未知的风险爆发之前找到对抗它的方法?这是生成式人工智能内在安全治理所要解决的问题。”赵星说道,“我们需要在人工智能风险到来之前,为人类社会提供新的技能树,以应对人工智能带来的非传统安全问题。”

内在安全治理模型的原理是基于群体智能将个体的“未知未知”转化为群体的“已知未知”,进而进一步转化为“已知已知”。

“当我们知道可能的风险是什么,以及它们产生的地方,生成式人工智能的治理就有机会转化为常规的安全问题,我们就可以尝试实现治理的闭环。”赵星表示,“然而,这仍需要长期的理论和实践探索。”

赵星的团队还探索了生成式人工智能在科学评价中的应用,创新地构建了“数智人”评价与治理新范式,其中包括客观数据、智能算法和专家评议的和谐共生。目前,团队正在进行利用类似ChatGPT工具构建智能评价系统的探索实验。

ChatGPT等生成式人工智能:过去、现在和未来的思考

“初步结果显示,尽管当前阶段生成式人工智能还无法胜任严肃的学术评价工作,但它展现出了跨学科评价能力和涌现性推断预测潜力,这值得高度关注。”赵星表示。

继续阅读