天天看点

基辛格:人工智能摇身一变成为人类“伙伴”,世界将会怎样?

作者:新金融评论

ChatGPT的爆火让人们意识到,自己可以比以往任何时候都更容易、更快捷、更廉价地借助人工智能来提升学习和工作能力。与此同时,不断有顶级人工智能组织和专家发出警告,人工智能发展带来的负面影响有可能是毁灭性的。

“人工智能很可能会改变社会轨迹和历史进程,人工智能不断融入我们的生活,将带来一个新世界。”近期,著名外交家亨利·基辛格(Henry Alfred Kissinger)联手谷歌前CEO埃里克·施密特(Eric Emerson Schmidt)、麻省理工学院苏世民计算机学院院长丹尼尔·胡滕洛赫尔(Daniel Huttenlocher)推出其新著《人工智能时代与人类未来》,提出如上判断。

基辛格已经步入100岁高龄,但他头脑依然清醒,思路依然清晰,一直关注人工智能的发展。他曾表示“搞技术的人关心的是应用,我关心的是影响”,也曾强烈呼吁,“人类需要重新定义与AI这种新物种之间的关系,而且我们人类对于这一切还没有准备好。”

本书着重提出,人工智能曾经是人类探索世界的工具,如今将摇身一变成为人类的伙伴——它将启迪人类,以人类未曾预期或始料未及的方式扩展人类现实世界的疆界,但这个发展趋势也有可能走向反面,即吸纳了人类知识的机器可能贬低和削弱人类。

“因此,应对日益盛行的人工智能带来的风险,是一项必须与该领域的进步并行的任务。”在谈到著书目的时,作者强调,“过去十年,人工智能已经在某些领域超过人类,但它也会犯错,且不能对其发现的成果进行反思。因此,人工智能的行动必须由人类决定,人类必须规范和监督这项技术。”

基辛格:人工智能摇身一变成为人类“伙伴”,世界将会怎样?

《人工智能时代与人类未来》

[美] 亨利·基辛格 [美] 埃里克·施密特

[美] 丹尼尔·胡滕洛赫尔 著

胡利平 风君 译

中信出版社 2023年5月

人工智能迎来重大进展:发现人类尚未察觉的客观现实

长久以来,人们一直梦想能有一个帮手,一台能够和人类胜任相同任务的机器,这就要求机器具备与人类同等的智力。自1943年第一台具有电子化、数字化和可编程化特征的现代计算机被发明之时,许多人就开始不断发出疑问:机器能够思考吗?它们拥有智能吗?

1956年,计算机科学家约翰·麦卡锡将人工智能定义为“能够执行具有人类智能特征的任务的机器”。不过,在此后半个世纪里,尽管不断有科幻小说和影视作品描绘机器人具备了人类思维能力和情感的故事情节,但在实际生活中,机器在很大程度上未能展现出这种智能。

但在最近的十年中,这种僵局已被打破。书中介绍,如今计算机领域的创新缔造了全新的人工智能,这些人工智能已经开始在某些领域与人类不相上下,甚至超过了人类。

2017年年底,由谷歌旗下DeepMind公司开发的人工智能程序AlphaZero击败了当时世界上最强大的国际象棋程序Stockfish。通常而言,一个国际象棋程序打败另一个国际象棋程序,这种新闻只会在狂热爱好者的小圈子里传播,但AlphaZero并不是普通的国际象棋程序:传统国际象棋程序依赖人类走棋的经验、知识和战略,借助预先编程的走法、组合,而AlphaZero是通过与自己进行数百万场对弈来提升棋艺,完全是人工智能自我训练的产物。

书中介绍,AlphaZero的战术颇为诡异,是真正的独创——它会弃掉那些被人类棋手视为极其重要的棋子,甚至包括皇后这样的强力棋子——这些走法是人类根本未曾考虑过的。AlphaZero有自己的逻辑,能够在纷繁复杂的众多可能性中识别出那些人类心智无法完全理解或加以利用的走棋模式。

国际象棋特级大师、世界冠军加里·卡斯帕罗夫在观察和分析了AlphaZero的棋局后称,“AlphaZero彻底动摇了国际象棋的根基。”对于这些世界上最伟大的棋手来说,当人工智能开始不断探索他们穷极一生才能精通的游戏的极限时,他们能做的却只有观察和学习。

书中还例举了另一个人工智能超越人类智慧的事件。2020年年初,麻省理工大学的研究人员宣布他们发现了一种新型抗生素,这种抗生素能够杀灭此前对所有已知抗生素都有耐药性的细菌毒株。

这个成果要归功于人工智能:研究人员指示先前经过训练的人工智能,对一个包含61000个分子的数据库进行筛查,以获取具备以下特质的药物分子:一是人工智能预测有效,二是与任何现有的抗生素不相似,三是人工智能预测无毒性。最终,人工智能从61000个分子中筛选出一个符合标准的分子,研究人员将其命名为Halicin(海利霉素),以致敬电影《2001太空漫游》中的超级计算机哈尔(HAL)。

该项目负责人表示,通过传统的研发方法获得Halicin的成本极其高昂,换句话说,这是以往无法实现的;而通过训练一个软件程序来识别新型抗生素,就变得高效和经济得多。

2020年5月,人工智能研究公司OpenAI展示了一款名为GPT-3的人工智能模型(GPT是“生成预训练转换器”的缩写,数字3代表“第三代”)。与执行特定任务(下棋或发现抗生素)的人工智能不同,GPT-3这样的模型会对各种输入内容产生可能的反应(因此被称为生成模型),这使得它具有广泛的适用性。

作者认为,能够产生类人文本的GPT-3是最值得关注的生成式人工智能之一,它打开了将“语言”翻译转化为“语言生产”的新局面——给定几个词,它就可以推断和生成一个句子;给出一个主题句,它就可以推断和生成一个段落——它可以捕捉单词、段落或代码之间的顺序以及关系,以生成类似输出。

“AlphaZero的胜利、Halicin的发现以及GPT-3产生的类人语言文本,说明了现代人工智能不仅在处理数据的速度方面超过了人类,更为重要的是,它还能察觉人类无法察觉但可能至关重要的现实层面。”作者表示。

人工智能不再是一个工具,而是成为了人类的伙伴

“在拥有全新算法和日益丰富且经济的算力的条件下,人工智能正变得无处不在。”作者表示,人类正在发展一种新的、极其强大的机制来探索和组织现实,在许多方面,这种机制对人类来说仍然是不可捉摸的:

我们正处于一场探究的开始阶段,这就是对人工智能可能实现的、超越人类已有感知或理解水平的探究。其应用可以让科学家有能力弥补人类观察者测量和感知现象能力的不足,或者填补人类(或者传统计算机)处理互补数据集和识别其中模式的能力方面的空白。

“人工智能曾一直是人类的工具,现在摇身一变成为了人类的伙伴。”作者提出,一种新型的人机伙伴关系正初露端倪:

首先,人类为机器定义一个问题或目标;然后,机器在人类无法企及的领域中运作,决定要追求的最优过程。一旦机器将某个过程带入人类可知的领域,我们就可以尝试去研究它、理解它,并在理想情况下将其纳入现行惯例中。

AlphaZero获胜后,其战术也融入了人类棋手的棋局中,拓展了人类对国际象棋的认知。美国空军已将AlphaZero的基本原理应用到一种名为ARTUμ的全新人工智能上,该人工智能在一次试飞中成功地操纵了一架U-2侦察机,这是在没有人类直接监督的情况下首个自主驾驶军用飞机和操作其雷达系统的计算机程序。发现Halicin的人工智能不仅在灭杀细菌、给药等狭义范围拓展了人类研究者的观念,在疾病、药物、医疗等广义领域也是如此。

机器将启迪人类,以我们不曾预期或始料未及的方式扩展我们现实世界的疆界。与此同时,人类将创造出众多能够获得惊人发现、得出震撼结论的机器,它们能够学习并评估其发现的重要性。这些机器的问世,必将开创一个新的纪元。

万事无绝对,事物总有AB面。谈至此处,作者也提出了对这种人机伙伴关系的担忧:

尽管人工智能可以得出结论、进行预测、制定决策,但它不具备自我意识,换句话说就是它没有反思自己在世界上所扮演角色的能力。它没有意图、动机、道德或情感,不过即使没有这些属性,它也可能会发展出与人不同、出人意料的方法来实现目标。但不可避免地,它将改变人类和人类所生活的环境。当一个人伴随着它成长或在它的陪伴下训练时,他可能会被诱导,甚至下意识地把它拟人化,把它当作一个同伴来对待。

虽然人工智能对绝大多数人来说显得隐晦高深、神秘莫测,但大学、公司和政府中越来越多的人已经学会了在普通消费产品中构建、操作和部署人工智能,我们中的许多人也已经通过这些产品在有意无意间与人工智能有了亲密接触。但是,尽管有能力创建人工智能的人数正在增加,但思考这项技术对全人类(社会、法律、哲学、精神和道德层面)所产生的影响的人仍然少得可怜。

作者认为,个人和社会将不得不决定,生活的哪些方面应该留给人类智慧,哪些方面则应交由人工智能或人类与人工智能的合作。人类与人工智能的合作并不是一种对等关系。归根结底,人工智能既由人类构建,也由人类指挥。

如今我们面临的现实是,随着人们对人工智能的高度依赖,对其加以限制可能会导致更高昂的成本、更困难的心理挑战,甚至需要更复杂的技术。作者认为:“我们的使命将是了解人工智能给人类经验带来的变化、它对人类身份的挑战,以及这些发展变化的哪些方面需要由其他的人类义务来加以调节或制衡。人类未来将如何呈现,这取决于人类在人工智能时代的角色界定。”

人工智能新时代:让人类理性既被增强,也被削弱

今年五月底,全球近400名人工智能专家及知名人士签署了一份只有22个英文单词的简短声明,警告人工智能技术可能预示着人类的终结:“降低人工智能带来的灭绝风险,应该与降低大流行病和核战争等其他大规模风险一起被纳入全球优先事项。”

在阐述人工智能带来的潜在风险时,作者并没有突出其严峻性和紧迫感,而是更多地提出:“真正的挑战或许在于,人工智能会不引人注意地融入平凡生活之中,以一种与我们的直觉相契合的方式微妙地塑造我们的体验。”

作者以大多数人最常使用的在线搜索功能为例,提到人工智能可以引导儿童远离成人内容,同时转向适合他们的年龄或参照系的内容,流媒体服务的订阅者越来越有可能观看到他们感兴趣而不是他们感到被冒犯的节目和电影。

“随着人工智能对人们的了解越来越深入,获得的结果大体上还是积极的。但在网络空间里,过滤会自我强化。”作者认为,个性化搜索和流媒体的算法逻辑会放大一些主题和内容来源,并出于实际需要对其他内容视而不见——这种遗漏的后果是双重的,既可以让个人变得闭目塞听,也可以让这些个体彼此难以一致。

如果信息和娱乐变得沉浸化、个性化和合成化,例如人工智能挑选的新闻证实了某一类人长期持有的信念,或者人工智能制作的电影让去世多年的演员担任了‘主演’,一个社会还会对其历史和事实有共同的理解吗?它还会有共同的文化吗?——这是作者的疑虑,更是担忧。

同时作者提出,人工智能带来的分化,还体现在采用新技术的人群和选择不采用同类技术或缺乏相应手段开发或获得技术的人群之间。当不同的群体或国家采用不同的人工智能概念或应用时,它们的现实体验可能会出现难以预测或弥合的分歧:

它们可能会陷入竞争、技术不兼容,以及越来越严重的相互不理解。随着时间的推移,最初被认为是超越民族差异和传播客观真理的工具的技术,可能会成为让文明和个人分化为各不相同、彼此无法理解的现实的原因。

除此之外,作者还担忧过度依赖人工智能技术将导致人类独立推理和判断的能力日益减退:

难以避免地,它加速了人类理性的消解势头:社交媒体减少了反思的空间,在线搜索削弱了概念化的动力。人工智能出现之前的算法就擅长向人类传递“令人沉迷”的内容,人工智能则更精于此道。随着深度阅读和分析的收缩,从事这些过程的传统回报也在收缩。而随着选择退出数字领域的代价日益高昂,人工智能将影响人类的思考能力。慢慢地,人类在审查、检验和理解信息方面的作用被削弱了,取而代之的是人工智能的作用扩大了。因此,在人工智能时代,人类理性会发现自己既被增强,也被削弱。

作者认为,互联网让用户淹没在数以千计甚至数以百万计的其他用户的意见中,剥夺了他们持续思考所需的独处感,而从历史上看,正是这种独处感催生了人类对探求知识的信念。随着独处感的消失,坚毅的精神也不复以往——须知不仅信念的形成需要坚韧不拔的毅力,保持对信念的忠诚也一样,当这种信念需要穿过未有前人踏足的(因此往往是孤独的)道路才能获取时尤其如此。也只有这种信念与智慧相结合,人们才能进入和探索新的世界。

“计算机在人类一直生活的物理领域中又添加了一个独立的数字领域。”作者提出,“随着我们越来越依赖数字技术,我们正在进入一个新的时代,在这个时代里,人类的理性思维正在放弃其作为世界现象的唯一发现者、认识者和分类者的头等地位。”

人类必须用最根本的素养和资源调整我们与现实的关系

在全新的人机伙伴关系中,人类无可避免地越来越依赖人工智能技术,这也使我们面临前述中的多重挑战。作者认为,在面对人工智能产生的结果时,人类必须进行逆向工作,将自身作为研究者或者审查者,必须验证人工智能是否产生如期的结果。

人工智能在某些方面超越了人类经验,产生了意想不到的发现,但它也会犯错。谷歌的图像识别软件曾因将人的图像误标为动物、又将动物图像误标为枪支而声名狼藉。“人工智能无法像人类一样考虑情境或进行反思,它只是运用方法并产生一个结果,而不管这个结果从人类的角度来看是平庸还是深刻,是善还是恶。”

“使用人工智能时,我们应该了解它的错误,这不是为了原谅它们,而是为了纠正它们。”作者提出,开发程序来评估人工智能是否能如预期般表现是至关重要的。

由于在可预见的未来,人工智能仍将由机器学习驱动,因此人类仍将无法察知人工智能正在学习什么,以及它如何知道自己学到了什么。不过,人类的学习往往也同样不透明,无论是艺术家、运动员、作家还是机械师,抑或是父母和孩子,几乎所有人,经常根据直觉行事,为了应对这种不透明性,各个社会制定了无数的专业认证项目、法规和法律。我们也可以对人工智能如法炮制,例如只有在人工智能的创造者通过测试过程证明其可靠性之后,社会才能允许其被使用。为人工智能制定专业认证、合规监控和监督计划,以及执行这个计划所需的监察专业知识,将是一项至关重要的社会规划。

未来,人工智能可能会在探索和管理现实世界和数字技术中发挥主导作用,在一些特定领域,人类可能会对人工智能“言听计从”。作者认为,这种遵从,可能使许多人甚至大多数人退回到一种个人的、过滤的、定制的世界。

对于这种情景,作者建议为其设定一些原则:

首先,为了确保人类的自主权,政府的核心决策应该脱离已被人工智能浸染的结构,并将其限于人类的管理和监督。我们社会固有的原则规定了对争端的和平解决。在这个过程中,秩序与正当性是互为关联的,没有正当性的秩序只是力量而已。

确保人类对政府基本构成部分的监督和决定性参与,对于维持其正当性至关重要。例如,在司法行政过程中,提供解释和道德推理是其正当性的关键要素,这使参与者能够评估裁决的公平性,并在其结论不符合社会所坚持的道德原则时对其提出疑问。由此可见,在人工智能时代,当涉及重大问题时,决策者都应该是具备相应资质、能够为所作选择给出理由的非匿名人类。

其次,人工智能有可能产生“高质量”和大容量的错误信息,比如深度伪造的信息,人类很难将这些信息与真实的视频、音频记录区分开来。尽管人工智能自动语音是应人们的要求创建和运用的,但重要的是要在它与真正的人类语音之间建立一种可理解的区分。此外,人工智能生成的虚假语句可能会模仿和近似人类语言,但它们只会淹没或扭曲后者。因此,遏制产生错误信息的人工智能进行传播,将有助于保护对我们的协商过程至关重要的言论权。

第三,每个社会必须首先确定人工智能在各个领域允许和不允许使用的全部范围。对某些强大的人工智能(如通用人工智能)的使用权,需要严格把关,以防止其被滥用。因为通用人工智能的构建成本可能相当高昂,只有少数组织能够负担得起,所以其使用可能会受到限制,其中某些限制可能违反一个社会关于自由企业和民主进程的理念。对于其他方面的限制,如限制在生物武器生产中使用人工智能,应该很容易达成一致,但需要国际合作。

人工智能发展之迅速,已经超过大多数人的预期。作者指出,“在道德、哲学、心理、实践上,可以说在各个方面,我们均发现自己正处于一个新时代的悬崖边,身后已无路可退。我们必须动用自己最根本的素养和资源,比如理性、信仰、传统和技术,来调整我们与现实的关系,从而让现实仍是人类的现实。”█

基辛格:人工智能摇身一变成为人类“伙伴”,世界将会怎样?

《人工智能时代与人类未来》

[美] 亨利·基辛格 [美] 埃里克·施密特

[美] 丹尼尔·胡滕洛赫尔 著

胡利平 风君 译

中信出版社 2023年5月

作者简介

亨利·基辛格:哈佛大学博士、教授,美国前国务卿,外交家、国际问题专家。主要著作《论中国》《世界秩序》等。

埃里克·施密特:谷歌前CEO、执行董事长,Alphabet公司(谷歌母公司)前执行董事长。2001—2011年,在他的协助下,谷歌成长为科技行业的全球领航者。

丹尼尔·胡滕洛赫尔:麻省理工学院苏世民计算机学院院长,曾担任康奈尔理工学院的创始院长和副教务长,这是一所由康奈尔大学创建的以数字技术为导向的研究生院。

内容简介

人工智能时代来临,将带来划时代的变革。人工智能正改变我们的社会、经济、政治和外交政策,这一切影响远远超过任何领域的传统范畴,而我们为此做好准备了吗?

在《人工智能时代与人类未来》一书中,来自政府、企业和科技界的三位思想家——外交家基辛格、谷歌前CEO施密特和麻省理工苏世民计算机学院院长胡滕洛赫尔齐聚一堂,探讨人工智能及其改变社会的方式,以及这项技术对我们所有人的意义。

本书通过梳理人工智能的发展现状、人类思想及技术演进的历程,进一步讨论了人工智能赋能的网络平台给个人、企业、政府、国家和地区带来的影响,以及人工智能将在重塑世界秩序和安全格局方面所起的作用。同时,该书反思了人工智能的发展对于人类自我身份认同产生的巨大冲击,以客观的视角提出人类在未来几年所必须面对的问题以及解答工具。

继续阅读