天天看点

王峰 | 人工智能意识“涌现论”的概念误区与未来视野

王峰 | 人工智能意识“涌现论”的概念误区与未来视野

人工智能意识“涌现论”的概念误区与未来视野

文 / 王峰

摘要:人工智能是否具有意识?或未来是否可能具有意识?这是一个看起来有些不好回答的问题。涌现论似乎可以提供一个肯定性的回答。然而,考察涌现论的概念结构,却发现人工智能意识的涌现论更多的是由于概念的不断转用而导致的误解,而非真正的意识涌现。这一涌现论也非全无益处,它鼓舞社会观念对人工智能抱有更宽容的接纳态度,视之为有机性存在,而非单纯机器。涌现论不是一个本体性问题,而是一个包含未来揣测维度的实践问题。未来是否承认人工智能存在意识,只能由离未来最近的人们来决定。所以,人工智能的意识涌现论不仅是技术和实质对象的讨论,更是一个文化观念的讨论。

关键词:人工智能;意识涌现论;概念分析

本文发表于《华东师范大学学报(哲学社会科学版)》2024年第2期 #重启科技与人文对话栏目

作者简介|PROFILE

• 王峰,华东师范大学传播学院、中文系联聘教授

目录概览

一 何以涌现

二 系统错置

三 人工智能意识涌现的近未来视野

全 文

ChatGPT似乎已经接近意识的边缘,或者说已经展现出了初步的意识特征。这引发了一个问题:我们是否可以推断出,像ChatGPT这样的人工智能将具有某种程度的意识?如果答案是肯定的,那么这种可能性背后的原理是什么?涌现论被视作其中一个可能的解答。然而,若涌现论无法被证实,那么它必须被排除在外。

乔治·丘奇颇具影响力的论文《机器的权利》 提出:“机器人已经表现出自由意志了吗?它们已经有自我意识了吗?机器人Qbo已经通过了关于自我认知的‘镜子测试’,机器人NAO也通过了识别自己声音及推断自己内心状态的相关测试。”根据网上查到的信息,机器人Qbo是一款可以识别出镜中自己影像的机器人,并且可以说出“哦,我真帅”之类的话。机器人NAO是一款可以自由活动,又可以进行语言交互的机器人,已经经过六轮升级换代,进入了家庭。根据产品介绍,它能够进行十余种语言的对话。我们不必太纠结这两款机器人是否真的通过对自我认知的测试,因为何为自我认知,是可以通过标准的转化进行设置的。我们所关注的是,人类的自我意识能否在人工智能那里复刻,这实际上是自我认知的最高标准。如果不能复刻,我们在谈论人工智能意识的时候实则降低了意识这一概念的准入标准,以适用于人工智能。这一做法很常见,但它不是技术实质的问题,更多的是概念内涵转换的问题。

此处先亮明观点:人工智能具有思考功能,符合智能标准,但意识对于人工智能来说并不必要,必须予以消除。我们的目标是找到一种方法,既能满足解释人工智能功能的需求,又能避免过度依赖意识概念。但是,同时我们也明确地知道,人工智能意识问题不是一个伪问题,而是一个在问题探索与实践推进中不断往返的建构行动。重要的是如何理解这一行动所包含的现实维度和未来维度。

一 何以涌现

涌现是一种特殊的生成。生成是指生物体在成长过程中,按照一定的规律不断成形。从有机体成长的层面来思考,生成通常指按照一定规律不断成长和呈现。就像一棵小树苗一样,一开始只是娇嫩的叶片,但逐渐成长,并最终长成参天大树。衡量这一树木成长的标准看似独立,但其实总是关联着某种参照系。所以,成长既是生物自身的事情,也依赖于参照系统的衡量。如果以整个森林为参照系,标准就是成为森林的一部分;如果以人类观察者为参照系,则需要适用于人类观察者的尺度。这是一种混合尺度。有机体的飞跃往往出自认识的不充分,而非出自生长自身的状态。我们对待生成的不同阶段,也会抱有不同的心态:面对一棵幼苗的时候,或许会视其为柔嫩的、需要呵护的生命;一旦它成长为参天大树,我们便放手让它经历风雨。

“涌现”这一概念则代表了一种跨越式的生成。它是一种全新的结构和逻辑的呈现,在先前的结构与后续的结构之间,明显存在无法解释的情况,但从有机体生成角度来看,又存在实质的过渡,表明其前与其后具有明确的连续性,只是暂时不能解释。这种现象往往由某些特定的条件或因素引发,从而使得新的形式或规律得以浮现出来。这种涌现的过程,不仅仅是一种简单的变化,更是一种深刻的变革,它能够引领我们进入一个全新的层面。

大语言模型在功能上的涌现,指的是当参数数量达到一定规模,例如1000亿个参数时,其语句生成效果将显著提升至流畅的水平。这反映了参数与语句生成之间的紧密联系。这种关联体现了模型在处理自然语言任务时的强大能力,使其能够在各种语境下实现高效、流畅的表达。

随着参数数量的增加,模型能够捕捉到更多的语言规则和材料,从而提高语句生成的质量和连贯性。这种优化不仅体现在生成的文本内容上,还表现在模型对输入信息的处理和理解能力上。通过不断学习和优化,大语言模型逐渐展现出强大的智能和适应性,为人们提供了更加便捷、高效的自然语言处理能力。

我们可以看到,一旦设定一个参数范围,明显可以发现不同的层级,前一层级不能完成的整体性任务,在下一层级中可以做到。如果基于后一层级获得的结构对前一层级进行观察,就会发现它具有自身的框架和逻辑,与下一层级结构拥有的另外一套逻辑和结构方式不同,我们找不到一种因果解释方式为这两个层级进行解释,但我们发现两个层级间具有某种融贯的关联。这不可避免地带来一个有趣的情况:在中断的位置发现了实质的连贯性,因此我们不得已把它称为一种涌现,当然,有时出于对整个过程的不理解,也将之称为“黑箱”。

要理解这一涌现,明显需要将两个层级结构放在一个对等的状态下进行理解,而这样一种理解,实际上在某种程度上就已经跳出了“生成”这一范畴,因为我们假设“生成”指的是从前一个阶段向后一个阶段延续下去的过程,其环节是连贯的;但是,我们却在涌现当中发现了前后层级逻辑的不一致,这就不可避免地出现一种尴尬,因为在生成当中我们总是会预设前后逻辑的连贯性,哪怕是其中一个过渡性的结构,也能够发现它与后一个阶段的连贯性,我们在涌现当中却没有发现这样的连贯性,也就是说涌现的前者和后者之间的中断是一种无可奈何的标识,我们只能使用量子跃迁或者飞跃这样的术语来表达某种不可解释(而非不存在)的连贯性。如此一来,我们就在涌现概念当中看到了某种尴尬,即我们必须制造高一级别的连贯性来容纳低一级的中断。只有这样,才能够将涌现视为一种自然的生长过程,而不是一种在中断中寻找连贯性的无奈之举。

在这里,我们可以将大语言模型的某种生成功能与人类语言行为的涌现理解相结合。这种涌现是由大语言模型的参数数量创造的,与人类的语言行为具有相似之处。然而,我们不能仅凭这一并列就认为这是对机器学习功能的自然理解。实际上,我们在这里将机器学习的两个不连续的阶段比附为人类理解的生物过程,是一种概念误置。对于人类理解的生物过程而言,涌现是对前后两个自然阶段的解释,同时这一解释也具有其实质的指向,而大语言模型的涌现则是两种功能呈现的联结,这是否真的是自然功能的涌现,还不容易确认。进一步,如果我们将语言理解功能的涌现视为意识的前奏,那么这无疑是一个错误的系统对接。

这里存在一个从解释重新转为定义的过程。人工智能的理解和语句生成功能的涌现,既在于参数的确定,也在于怎样将人类理解能力放入人工智能语句的生成过程当中。我们也就将之称为人工语句的生成功能的涌现。这一定义带来的一个后果就是将人工智能语句生成视为一种自然的语言使用结果。于是乎,我们认为自己发现了两个实质性的不同阶段,但是真实的缘故却是,我们将一种外在的解释灌注这一过程中,使其看似“自然”,看似实质存在的东西,并将之假定为一种实质事物的样子,从而认定一种新的实质存在的生成,却忽略了这是解释叠加于实质之物上所达成的混合效果。

二 系统错置

讨论机器的意识涌现,就是在讨论技术逻辑向非技术逻辑的转换。在这一转换过程中,我们必须注意是否在做不同系统间的切换,如果出现系统切换,必须尽可能对这一切换做出清晰的解释。人的身体功能可以完成各种基本活动,同时,人又具有整体性调控和反应。对于人这样的有机体来说,这些都是可以观察到的,并且是可以通过自反性获知的。假如,我们在人工智能那里看到更加强有力的类人活动,并且看到某种整体性调控,就以此推论人工智能的意识可以如同人一样涌现出来,这样的推论可能是一个系统性差异所产生的错置。

我们来看一个类似情境就可以清楚这里的问题所在。人类一直在地球上生活,我们渴望拥有超越自身能力的神奇力量。然而,由于人类的天赋有限,在地球表面,一个健康的个体正常跳跃高度约为一米。然而,当他们踏上月球时,情况发生了显著的变化:根据计算,人类在月球表面的跳跃高度应达到六米之高。那么,我们能否说这个人具有了某种神秘的超自然力量的涌现呢?当然,对于接受过现代科学训练的人来说,这种神秘力量的说法仅仅是修辞上的玩笑话,并不代表真正的超自然现象。从科学原理来讲,假设一个个体在起跳的瞬间,其运动速度与地球表面保持一致,那么起始阶段的动能将是相等的。根据机械能守恒的原则,当该个体达到最高点时,势能E与物体的质量m、重力加速度g以及高度h之间呈现出反比的关系。这意味着,个体跳跃的高度与其所在星球的重力加速度呈反比关系。具体来说,由于月球表面的重力仅为地球表面的六分之一,因此在月球上跳跃所能达到的高度将是地球表面的六倍,即6米之高。

我们发现地球引力系统与月球引力系统之间的差异导致了在月球上和地球上行走方式以及起跳高度的差异。就像地球上的人和月球上的人在不同的引力系统中表现出不同的行为模式一样,人工智能与人类之间也存在系统性的差异。人工智能是人造产物,表面上与人处于同一个系统中,我们也习惯性地运用人类既有系统的支架性概念来反思它,而忽略这是在使用旧的系统观念来思考新系统。

事实上,人工智能的发展也遵循着类似的规律。虽然人工智能在某些特定任务上表现出惊人的能力,但这并不表明它们具备了意识或自我意识,所谓的“智能”实际上指复杂性思考,是对人类思考复杂性的模拟。

人工智能既是人工的,又具备智能,这一点并不容易理解。从人类系统着眼,智能与身体、心灵、意识和灵魂等诸多方面密切相关。但是,人工智能系统是否如此?恐怕这样的联系并不恰当。人工智能之所以被称为智能,仅仅因为它在思考层面上表现出人的思考能力。就此而论,人工智能与人是一致的,但如果继续讨论人工智能是否具有人的其他能力或素质,答案就变得模棱两可。对未来持有强烈乐观情绪的雷·库兹韦尔(Ray Kurzweil)批判塞尔的中文屋所导向的人工智能“无意识”结论,但只是反对这一独断性结论,对于是否一定会导向人工智能具有意识这个方向其实有些含糊。他说:“今天我们很难去推论计算机程序是否有真正的理解或意识。”也许我们更应该反省的是这一思考路径,它所包含的潜问题是,如何用人工智能系统替代人类能力系统,两者具有何种一致性和连贯性。

任何两种系统都具有某种一致性,尤其是人工智能系统与人类系统的一致性,但其根本性区分却往往容易被掩盖。如果不注意这样的根本性区分,就很可能混淆不同系统之间的差异。当然,我们承认这种混淆的存在,并且注意到这一混淆具有社会实践上的益处。我们注意到这两套系统的不同,但它们暂时以不同的事实性面貌出现,而尚未完全以不同的系统性面貌呈现,这正是导致系统混淆的根本原因之一。努力运用旧系统来解释新事实,实际上一直是科学理论变革和转化初期阶段的独有特征。随着对新系统与旧系统的不断对比,最终往往是新的系统替换旧的系统,比如伊姆雷·拉卡托斯(Imre Lakatos)探讨了哥白尼科学纲领取代托勒密科学纲领的原因,指出:“根据评价研究纲领的所有三个标准:理论进步标准、经验进步标准和启发法进步标准,哥白尼纲领都优越于托勒密纲领。哥白尼纲领预测了更广泛的现象,得到了新颖事实的认证,尽管《天体运行论》 中有退化成分,但它的启发法比《大综合论》 更有统一性。”需要认识到,人工智能是一场深刻的科学革命,它所带来的问题已不再是我们所面对的事实性的问题,而是如何认识人类自身的问题。将人从其所处的系统中剥离出来是痛苦且艰难的,这是此前从来没有过的境况,当然也是人工智能带给我们的巨大机遇。

赛博格(机器与人的融合)事实并非寻常之事,然而它却以寻常事物的面貌呈现。换言之,我们更容易看到寻常事物,对赛博格事实却鲜少察觉。事实上,赛博格事实早已存在,比如互联网的广泛使用就是一种赛博格,但我们并未将其视为普遍现象,反而将其视为某种前沿文化的表征,进而使其消弭于日常生活之中,忽略新事实的诞生。

当我们在ChatGPT等大语言模型技术中看出某种意识现象时,其实只看到人的意识的代入,没有看到不同系统的转换。在人类系统中,当我们观察到意识的某种特征时,可以通过反推法得出意识存在的结论。因为在人类这里,意识与意识的表征是直接联系在一起的。出现特征A,特征B必然会出现;因此,当特征B出现时,我们可以推论出特征A的存在。这是一种强有力的推论,但限于人类系统。

人工智能却并不存在这样的强关联。系统不同,关联方式也不同。人类系统下的关联并不可以平移到人工智能系统中。我们需要做的首要工作就是突出系统差异,以便更好地理解人工智能系统,进而理解人类自身。

为什么我们在面对赛博格事实时会视而不见?这是因为我们的正常视力逐渐戴上了一副有色眼镜,这是技术发展给我们带来的副作用,但我们一直将其视为理所当然——有色眼镜才是“自然的”。实际上,所有的眼镜都是渐变的,渐变维持了我们对正常感觉的错觉,却无法带来直面事实的力量。只有当两种事实之间的断裂让我们无法适应时,我们才有可能摘下这副有色眼镜,正视赛博格世界的真实面貌。

在讨论人工智能与人类智能的差异时,我们必须认识到两者之间的根本区别。人类智能是整体性的,而人工智能的智能则是分布式的。这种差异不仅体现在直观上,还体现在科学理论和传播手段的影响上。

几千年前,甚至就在200年前,人们把月亮看作一种神奇的存在,因为在那个时代,月球是一个遥远的存在,无法用科学的方式探索。20世纪中叶以来,人类登上月球,月球不再是遥远而神秘的月亮,而是被定位在科学性的天文系统当中。宇航员在月球上的行走和在地球上的行走也有很大的不同,这是由不同的引力系统和穿戴设备所决定的。现代科学的力量使得我们能够将两个不同的系统进行比较,从而揭示出它们之间的差异。

在日常生活事实和赛博技术事实之间存在一种系统转换的过程。这种转换不仅仅是将技术嫁接到日常生活中,更重要的是提供了一种新的技术框架,使我们能够不断推动日常事实向赛博技术为基础的赛博事实转变。我们不能仅仅将其视为同一系统下的不同事实类型,而应该认识到这些差异实际上是基于不同的系统而产生的。

在人工智能系统下,我们无法找到与日常系统相关联的意识、灵魂和心灵等概念。然而,这些概念在某种程度上仍然可以通过与日常系统相关部分相对接的方式展现出来,比如,人工智能意识这样的概念,就是跨越不同概念系统进行概念对接产生的新词,这一新词可能表征某些实质的转变,但更可能是不同概念系统错置产生的概念溢出。这一溢出在社会文化中发挥作用,仿佛有真实的人工智能意识出现,我们也为之做出努力。在此,我们可以看到,一系列观念性的意识表征和实质性的意识活动混杂在一起,使我们将事实和观念压缩成一个整体。从而让我们倾向于认定,这里可能存在事实性的意识涌现,这是必须进行解剖分析的。

康德的工作方法,我们可以移用到人工智能与意识问题上。康德指出感性和理性各自独立,对其领地具有立法权,判断力是跨越两大领地的桥梁,并一同构成人的三大能力:认识能力、愉快和不愉快的情感和欲求能力。与之相类,在智能上,人类智能和人工智能是两种不同的领地,它们之所以可以交接,就在于人类与人工智能所共有的智能部分。这一共有的智能部分此前从未出现,只有在人工智能能够完成围棋这类复杂智力活动并击败人类时才真正出现,并且在大语言模型的语言表达中才能得到确证。这一共有的智能既不单纯属于人类有机体,也不单纯属于人工智能,而是一种在机器层面上展现出的智能表征,它的确来自对人类智能的学习,但这一学习是无身体的学习,单纯语言层面的学习,这是一种赛博格状态,它来自人类智能,并在人工智能上展现出来,形成人与人工智能智力的相交融状态,这是一种智力赛博格,大语言模型出现之后,人类的智力表现方式也出现了改变。

三 人工智能意识涌现的近未来视野

可以看到,从目前技术和观念状况来说,人工智能意识并不具有实现的可能性,但我们是否就此得出未来也不会实现呢?并不能这样决然地进行判断。对于这一点,我们只能小心翼翼地去试探。我们并不知道未来会出现哪种新的技术方法和材料能够实现人脑的完全替代,目前尚无可能性并不表明未来没有可能,所以我们只能以实践主义的态度来探索这一方向。

未来并不由我们来决定,而是由距离未来最近的那个阶段的人们来决定。那些看似不悦耳的声音,实则体现了我们对未来的期许与影响。我们在通往未来的道路上,希望现在的决策能够对未来产生积极的影响,这是一种负责任的态度。然而,我们也必须意识到,从现在通往未来的过程充满了各种期待,这些期待可能实现,也可能失败,进而导致乌托邦的荣光或者困境。无论哪种情况,我们都无法完全掌控未来的走向,因为其中蕴含无数不确定性。

如果真的有一天人类自身发生了变化,那么,应该由最接近变革点的人们来决定是否需要改变,而无须我们这些距离较远的人担忧。我们不能忘记,人类已经在过去的几千年里发生了很多变化。5000年前的人们看到我们现在科技水平,可能会惊为天人;2000年前的人们则会觉得我们不可思议;而100年前的人们则可能会认为我们已经堕落。许煜提出,这是不同的宇宙技术导致的,技术系统不仅仅是生活的辅助,而是帮助我们形成总体的宇宙观。许煜把宇宙技术“看作知识生产的感知性条件,更确切地说,它意味着一个时代和一片地域(它的宇宙)的集体美学体验”。同样地,我们也无法预知未来的样子。人工智能到底能否涌现出意识,这可能不仅仅取决于技术,而是观念、技术、伦理结构等等一同决定了如何去选择。但如果我们忽略了人类现实结构的逐步转变,很可能会对某些特殊状态感到恐惧。但这一恐惧是跨越式的观念视角,忽视了现实情况往往受到各种实际因素的影响而发生持续的转变。

人类总是能找到解决问题的方法,除非遇到某种人力已经无法解决的困境,如地球遭受撞击、太阳侵袭、大地震、海啸等,或者像科幻电影所假想的那样,外星人入侵地球。然而,未来的人们会将这些问题视为难以解决的难题吗?我们不得而知。或许那时的人们已经离开了地球,我们同样无法预测。虽然我们本着对未来负责任的态度去思考可能发生的情况,但这种忧虑始终是当代文化的一个特征。这一特征表明我们人类整体具有反思观念,但人类向赛博人的跨越却是逐步进行的。赵汀阳这样来推论:“GPT概念只是一个过渡性的人工智能型号,其设计概念注定了其在‘物种’上的局限性。如果人工智能将来通过某种新概念的设计而达到‘笛卡尔-胡塞尔机’,即有自主意识能力来生成任何意向对象的人工智能,那么就形成了真正的主体和自我意识。”这表征了人工智能意识在观念上的不确定性。也许在未来的某一时刻,我们视人工智能意识为必然,这一过渡也很可能是曲折变动地发生的。我们很少因某个奇点来认定某一状态,如人工智能意识的涌现,而是不知不觉地被带入这一境地,这很可能是社会结构与技术结构进行复杂博弈而产生的一个结果,并不单纯是对一个实质性的生存或技术状态的指认。

我们现在所处的时刻,是否正是那个需要做出决断的时刻呢?这源于我们对人类自身的理解以及对危机性质的判断。只有在迫在眉睫的紧急情况下,如全民灭绝的威胁,才可能导致我们做出一个选择或需要一个选择。除此之外,我们其实既担忧又充满希望,面对现实生活的挑战不断努力迈向更美好的未来。

时光流转,我们容易为过去的遗憾而感伤,为未来的不确定而忧虑。然而,每个时代都有其独特的忧虑和感慨,我们所担忧的事物未必是后代所担忧的,我们所崇敬的事物也许后代弃之如敝屣。到底人工智能能否涌现出意识,或者以何种方式涌现意识;人工智能意识问题到底是一个假问题,还是技术与社会意识的共谋?如此等等,也许并不一定需要我们来判断。未来时间点上的人们如何去判断,我们其实不得而知。唯一确知的是,他们必然面临与现在不同的挑战和机遇,他们也将面临我们现在无法想象的新奇点。

从人工智能意识的实质论,转为人工智能意识概念的误区诊治,再到包含未来维度的人工智能意识的行动实践,我们通过阳关三叠式的讨论触及人工智能意识的几个关键维度,从中看到概念错置所产生的迷惑,同样,厘清概念虽然必要,但彻底根除人工智能意识也并非本文意旨。在人工智能的不断实践推进过程中,意识问题也会起起伏伏,在技术的不断推进之中也会不断在肯定与否定之间摇摆,形成钟摆振荡一般的轨迹。我们现在已经处于一个持续变革的时代,许多突破性的科技和创新正在改变我们的生活。例如,阿尔法狗战胜李世石、ChatGPT的出现等。这些看似颠覆性的变革,容易给我们造成人工智能具有意识的印象;同时,文化似乎具有更广阔的容纳力,人工智能意识论只会在日常生活中造成短暂的慌乱,随后一切又回归平静,我们也就接受了人工智能意识的可能性。人工智能进入工作和生活,直到下次人工智能新技术带来另一份震惊,再次激发人工智能意识的问题。在这样的不断摇摆当中,我们可能会觉得:“人工智能具有意识总是好的,万一实现了呢?”我们当然可以再加上一句:“人工智能有或没意识,这个问题有那么重要吗?”

继续阅读