天天看點

王峰 | 人工智能意識“湧現論”的概念誤區與未來視野

王峰 | 人工智能意識“湧現論”的概念誤區與未來視野

人工智能意識“湧現論”的概念誤區與未來視野

文 / 王峰

摘要:人工智能是否具有意識?或未來是否可能具有意識?這是一個看起來有些不好回答的問題。湧現論似乎可以提供一個肯定性的回答。然而,考察湧現論的概念結構,卻發現人工智能意識的湧現論更多的是由于概念的不斷轉用而導緻的誤解,而非真正的意識湧現。這一湧現論也非全無益處,它鼓舞社會觀念對人工智能抱有更寬容的接納态度,視之為有機性存在,而非單純機器。湧現論不是一個本體性問題,而是一個包含未來揣測次元的實踐問題。未來是否承認人工智能存在意識,隻能由離未來最近的人們來決定。是以,人工智能的意識湧現論不僅是技術和實質對象的讨論,更是一個文化觀念的讨論。

關鍵詞:人工智能;意識湧現論;概念分析

本文發表于《華東師範大學學報(哲學社會科學版)》2024年第2期 #重新開機科技與人文對話欄目

作者簡介|PROFILE

• 王峰,華東師範大學傳播學院、中文系聯聘教授

目錄概覽

一 何以湧現

二 系統錯置

三 人工智能意識湧現的近未來視野

全 文

ChatGPT似乎已經接近意識的邊緣,或者說已經展現出了初步的意識特征。這引發了一個問題:我們是否可以推斷出,像ChatGPT這樣的人工智能将具有某種程度的意識?如果答案是肯定的,那麼這種可能性背後的原理是什麼?湧現論被視作其中一個可能的解答。然而,若湧現論無法被證明,那麼它必須被排除在外。

喬治·丘奇頗具影響力的論文《機器的權利》 提出:“機器人已經表現出自由意志了嗎?它們已經有自我意識了嗎?機器人Qbo已經通過了關于自我認知的‘鏡子測試’,機器人NAO也通過了識别自己聲音及推斷自己内心狀态的相關測試。”根據網上查到的資訊,機器人Qbo是一款可以識别出鏡中自己影像的機器人,并且可以說出“哦,我真帥”之類的話。機器人NAO是一款可以自由活動,又可以進行語言互動的機器人,已經經過六輪更新換代,進入了家庭。根據産品介紹,它能夠進行十餘種語言的對話。我們不必太糾結這兩款機器人是否真的通過對自我認知的測試,因為何為自我認知,是可以通過标準的轉化進行設定的。我們所關注的是,人類的自我意識能否在人工智能那裡複刻,這實際上是自我認知的最高标準。如果不能複刻,我們在談論人工智能意識的時候實則降低了意識這一概念的準入标準,以适用于人工智能。這一做法很常見,但它不是技術實質的問題,更多的是概念内涵轉換的問題。

此處先亮明觀點:人工智能具有思考功能,符合智能标準,但意識對于人工智能來說并不必要,必須予以消除。我們的目标是找到一種方法,既能滿足解釋人工智能功能的需求,又能避免過度依賴意識概念。但是,同時我們也明确地知道,人工智能意識問題不是一個僞問題,而是一個在問題探索與實踐推進中不斷往返的建構行動。重要的是如何了解這一行動所包含的現實次元和未來次元。

一 何以湧現

湧現是一種特殊的生成。生成是指生物體在成長過程中,按照一定的規律不斷成形。從有機體成長的層面來思考,生成通常指按照一定規律不斷成長和呈現。就像一棵小樹苗一樣,一開始隻是嬌嫩的葉片,但逐漸成長,并最終長成參天大樹。衡量這一樹木成長的标準看似獨立,但其實總是關聯着某種參照系。是以,成長既是生物自身的事情,也依賴于參照系統的衡量。如果以整個森林為參照系,标準就是成為森林的一部分;如果以人類觀察者為參照系,則需要适用于人類觀察者的尺度。這是一種混合尺度。有機體的飛躍往往出自認識的不充分,而非出自生長自身的狀态。我們對待生成的不同階段,也會抱有不同的心态:面對一棵幼苗的時候,或許會視其為柔嫩的、需要呵護的生命;一旦它成長為參天大樹,我們便放手讓它經曆風雨。

“湧現”這一概念則代表了一種跨越式的生成。它是一種全新的結構和邏輯的呈現,在先前的結構與後續的結構之間,明顯存在無法解釋的情況,但從有機體生成角度來看,又存在實質的過渡,表明其前與其後具有明确的連續性,隻是暫時不能解釋。這種現象往往由某些特定的條件或因素引發,進而使得新的形式或規律得以浮現出來。這種湧現的過程,不僅僅是一種簡單的變化,更是一種深刻的變革,它能夠引領我們進入一個全新的層面。

大語言模型在功能上的湧現,指的是當參數數量達到一定規模,例如1000億個參數時,其語句生成效果将顯著提升至流暢的水準。這反映了參數與語句生成之間的緊密聯系。這種關聯展現了模型在處理自然語言任務時的強大能力,使其能夠在各種語境下實作高效、流暢的表達。

随着參數數量的增加,模型能夠捕捉到更多的語言規則和材料,進而提高語句生成的品質和連貫性。這種優化不僅展現在生成的文本内容上,還表現在模型對輸入資訊的處理和了解能力上。通過不斷學習和優化,大語言模型逐漸展現出強大的智能和适應性,為人們提供了更加便捷、高效的自然語言處理能力。

我們可以看到,一旦設定一個參數範圍,明顯可以發現不同的層級,前一層級不能完成的整體性任務,在下一層級中可以做到。如果基于後一層級獲得的結構對前一層級進行觀察,就會發現它具有自身的架構和邏輯,與下一層級結構擁有的另外一套邏輯和結構方式不同,我們找不到一種因果解釋方式為這兩個層級進行解釋,但我們發現兩個層級間具有某種融貫的關聯。這不可避免地帶來一個有趣的情況:在中斷的位置發現了實質的連貫性,是以我們不得已把它稱為一種湧現,當然,有時出于對整個過程的不了解,也将之稱為“黑箱”。

要了解這一湧現,明顯需要将兩個層級結構放在一個對等的狀态下進行了解,而這樣一種了解,實際上在某種程度上就已經跳出了“生成”這一範疇,因為我們假設“生成”指的是從前一個階段向後一個階段延續下去的過程,其環節是連貫的;但是,我們卻在湧現當中發現了前後層級邏輯的不一緻,這就不可避免地出現一種尴尬,因為在生成當中我們總是會預設前後邏輯的連貫性,哪怕是其中一個過渡性的結構,也能夠發現它與後一個階段的連貫性,我們在湧現當中卻沒有發現這樣的連貫性,也就是說湧現的前者和後者之間的中斷是一種無可奈何的辨別,我們隻能使用量子躍遷或者飛躍這樣的術語來表達某種不可解釋(而非不存在)的連貫性。如此一來,我們就在湧現概念當中看到了某種尴尬,即我們必須制造高一級别的連貫性來容納低一級的中斷。隻有這樣,才能夠将湧現視為一種自然的生長過程,而不是一種在中斷中尋找連貫性的無奈之舉。

在這裡,我們可以将大語言模型的某種生成功能與人類語言行為的湧現了解相結合。這種湧現是由大語言模型的參數數量創造的,與人類的語言行為具有相似之處。然而,我們不能僅憑這一并列就認為這是對機器學習功能的自然了解。實際上,我們在這裡将機器學習的兩個不連續的階段比附為人類了解的生物過程,是一種概念誤置。對于人類了解的生物過程而言,湧現是對前後兩個自然階段的解釋,同時這一解釋也具有其實質的指向,而大語言模型的湧現則是兩種功能呈現的聯結,這是否真的是自然功能的湧現,還不容易确認。進一步,如果我們将語言了解功能的湧現視為意識的前奏,那麼這無疑是一個錯誤的系統對接。

這裡存在一個從解釋重新轉為定義的過程。人工智能的了解和語句生成功能的湧現,既在于參數的确定,也在于怎樣将人類了解能力放入人工智能語句的生成過程當中。我們也就将之稱為人工語句的生成功能的湧現。這一定義帶來的一個後果就是将人工智能語句生成視為一種自然的語言使用結果。于是乎,我們認為自己發現了兩個實質性的不同階段,但是真實的緣故卻是,我們将一種外在的解釋灌注這一過程中,使其看似“自然”,看似實質存在的東西,并将之假定為一種實質事物的樣子,進而認定一種新的實質存在的生成,卻忽略了這是解釋疊加于實質之物上所達成的混合效果。

二 系統錯置

讨論機器的意識湧現,就是在讨論技術邏輯向非技術邏輯的轉換。在這一轉換過程中,我們必須注意是否在做不同系統間的切換,如果出現系統切換,必須盡可能對這一切換做出清晰的解釋。人的身體功能可以完成各種基本活動,同時,人又具有整體性調控和反應。對于人這樣的有機體來說,這些都是可以觀察到的,并且是可以通過自反性獲知的。假如,我們在人工智能那裡看到更加強有力的類人活動,并且看到某種整體性調控,就以此推論人工智能的意識可以如同人一樣湧現出來,這樣的推論可能是一個系統性差異所産生的錯置。

我們來看一個類似情境就可以清楚這裡的問題所在。人類一直在地球上生活,我們渴望擁有超越自身能力的神奇力量。然而,由于人類的天賦有限,在地球表面,一個健康的個體正常跳躍高度約為一米。然而,當他們踏上月球時,情況發生了顯著的變化:根據計算,人類在月球表面的跳躍高度應達到六米之高。那麼,我們能否說這個人具有了某種神秘的超自然力量的湧現呢?當然,對于接受過現代科學訓練的人來說,這種神秘力量的說法僅僅是修辭上的玩笑話,并不代表真正的超自然現象。從科學原理來講,假設一個個體在起跳的瞬間,其運動速度與地球表面保持一緻,那麼起始階段的動能将是相等的。根據機械能守恒的原則,當該個體達到最高點時,勢能E與物體的品質m、重力加速度g以及高度h之間呈現出反比的關系。這意味着,個體跳躍的高度與其所在星球的重力加速度呈反比關系。具體來說,由于月球表面的重力僅為地球表面的六分之一,是以在月球上跳躍所能達到的高度将是地球表面的六倍,即6米之高。

我們發現地球引力系統與月球引力系統之間的差異導緻了在月球上和地球上行走方式以及起跳高度的差異。就像地球上的人和月球上的人在不同的引力系統中表現出不同的行為模式一樣,人工智能與人類之間也存在系統性的差異。人工智能是人造産物,表面上與人處于同一個系統中,我們也習慣性地運用人類既有系統的支架性概念來反思它,而忽略這是在使用舊的系統觀念來思考新系統。

事實上,人工智能的發展也遵循着類似的規律。雖然人工智能在某些特定任務上表現出驚人的能力,但這并不表明它們具備了意識或自我意識,所謂的“智能”實際上指複雜性思考,是對人類思考複雜性的模拟。

人工智能既是人工的,又具備智能,這一點并不容易了解。從人類系統着眼,智能與身體、心靈、意識和靈魂等諸多方面密切相關。但是,人工智能系統是否如此?恐怕這樣的聯系并不恰當。人工智能之是以被稱為智能,僅僅因為它在思考層面上表現出人的思考能力。就此而論,人工智能與人是一緻的,但如果繼續讨論人工智能是否具有人的其他能力或素質,答案就變得模棱兩可。對未來持有強烈樂觀情緒的雷·庫茲韋爾(Ray Kurzweil)批判塞爾的中文屋所導向的人工智能“無意識”結論,但隻是反對這一獨斷性結論,對于是否一定會導向人工智能具有意識這個方向其實有些含糊。他說:“今天我們很難去推論計算機程式是否有真正的了解或意識。”也許我們更應該檢討的是這一思考路徑,它所包含的潛問題是,如何用人工智能系統替代人類能力系統,兩者具有何種一緻性和連貫性。

任何兩種系統都具有某種一緻性,尤其是人工智能系統與人類系統的一緻性,但其根本性區分卻往往容易被掩蓋。如果不注意這樣的根本性區分,就很可能混淆不同系統之間的差異。當然,我們承認這種混淆的存在,并且注意到這一混淆具有社會實踐上的益處。我們注意到這兩套系統的不同,但它們暫時以不同的事實性面貌出現,而尚未完全以不同的系統性面貌呈現,這正是導緻系統混淆的根本原因之一。努力運用舊系統來解釋新事實,實際上一直是科學理論變革和轉化初期階段的獨有特征。随着對新系統與舊系統的不斷對比,最終往往是新的系統替換舊的系統,比如伊姆雷·拉卡托斯(Imre Lakatos)探讨了哥白尼科學綱領取代托勒密科學綱領的原因,指出:“根據評價研究綱領的所有三個标準:理論進步标準、經驗進步标準和啟發法進步标準,哥白尼綱領都優越于托勒密綱領。哥白尼綱領預測了更廣泛的現象,得到了新穎事實的認證,盡管《天體運作論》 中有退化成分,但它的啟發法比《大綜合論》 更有統一性。”需要認識到,人工智能是一場深刻的科學革命,它所帶來的問題已不再是我們所面對的事實性的問題,而是如何認識人類自身的問題。将人從其所處的系統中剝離出來是痛苦且艱難的,這是此前從來沒有過的境況,當然也是人工智能帶給我們的巨大機遇。

賽博格(機器與人的融合)事實并非尋常之事,然而它卻以尋常事物的面貌呈現。換言之,我們更容易看到尋常事物,對賽博格事實卻鮮少察覺。事實上,賽博格事實早已存在,比如網際網路的廣泛使用就是一種賽博格,但我們并未将其視為普遍現象,反而将其視為某種前沿文化的表征,進而使其消弭于日常生活之中,忽略新事實的誕生。

當我們在ChatGPT等大語言模型技術中看出某種意識現象時,其實隻看到人的意識的代入,沒有看到不同系統的轉換。在人類系統中,當我們觀察到意識的某種特征時,可以通過反推法得出意識存在的結論。因為在人類這裡,意識與意識的表征是直接聯系在一起的。出現特征A,特征B必然會出現;是以,當特征B出現時,我們可以推論出特征A的存在。這是一種強有力的推論,但限于人類系統。

人工智能卻并不存在這樣的強關聯。系統不同,關聯方式也不同。人類系統下的關聯并不可以平移到人工智能系統中。我們需要做的首要工作就是突出系統差異,以便更好地了解人工智能系統,進而了解人類自身。

為什麼我們在面對賽博格事實時會視而不見?這是因為我們的正常視力逐漸戴上了一副有色眼鏡,這是技術發展給我們帶來的副作用,但我們一直将其視為理所當然——有色眼鏡才是“自然的”。實際上,所有的眼鏡都是漸變的,漸變維持了我們對正常感覺的錯覺,卻無法帶來直面事實的力量。隻有當兩種事實之間的斷裂讓我們無法适應時,我們才有可能摘下這副有色眼鏡,正視賽博格世界的真實面貌。

在讨論人工智能與人類智能的差異時,我們必須認識到兩者之間的根本差別。人類智能是整體性的,而人工智能的智能則是分布式的。這種差異不僅展現在直覺上,還展現在科學理論和傳播手段的影響上。

幾千年前,甚至就在200年前,人們把月亮看作一種神奇的存在,因為在那個時代,月球是一個遙遠的存在,無法用科學的方式探索。20世紀中葉以來,人類登上月球,月球不再是遙遠而神秘的月亮,而是被定位在科學性的天文系統當中。宇航員在月球上的行走和在地球上的行走也有很大的不同,這是由不同的引力系統和穿戴裝置所決定的。現代科學的力量使得我們能夠将兩個不同的系統進行比較,進而揭示出它們之間的差異。

在日常生活事實和賽博技術事實之間存在一種系統轉換的過程。這種轉換不僅僅是将技術嫁接到日常生活中,更重要的是提供了一種新的技術架構,使我們能夠不斷推動日常事實向賽博技術為基礎的賽博事實轉變。我們不能僅僅将其視為同一系統下的不同僚實類型,而應該認識到這些差異實際上是基于不同的系統而産生的。

在人工智能系統下,我們無法找到與日常系統相關聯的意識、靈魂和心靈等概念。然而,這些概念在某種程度上仍然可以通過與日常系統相關部分相對接的方式展現出來,比如,人工智能意識這樣的概念,就是跨越不同概念系統進行概念對接産生的新詞,這一新詞可能表征某些實質的轉變,但更可能是不同概念系統錯置産生的概念溢出。這一溢出在社會文化中發揮作用,仿佛有真實的人工智能意識出現,我們也為之做出努力。在此,我們可以看到,一系列觀念性的意識表征和實質性的意識活動混雜在一起,使我們将事實和觀念壓縮成一個整體。進而讓我們傾向于認定,這裡可能存在事實性的意識湧現,這是必須進行解剖分析的。

康德的工作方法,我們可以移用到人工智能與意識問題上。康德指出感性和理性各自獨立,對其領地具有立法權,判斷力是跨越兩大領地的橋梁,并一同構成人的三大能力:認識能力、愉快和不愉快的情感和欲求能力。與之相類,在智能上,人類智能和人工智能是兩種不同的領地,它們之是以可以交接,就在于人類與人工智能所共有的智能部分。這一共有的智能部分此前從未出現,隻有在人工智能能夠完成圍棋這類複雜智力活動并擊敗人類時才真正出現,并且在大語言模型的語言表達中才能得到确證。這一共有的智能既不單純屬于人類有機體,也不單純屬于人工智能,而是一種在機器層面上展現出的智能表征,它的确來自對人類智能的學習,但這一學習是無身體的學習,單純語言層面的學習,這是一種賽博格狀态,它來自人類智能,并在人工智能上展現出來,形成人與人工智能智力的相交融狀态,這是一種智力賽博格,大語言模型出現之後,人類的智力表現方式也出現了改變。

三 人工智能意識湧現的近未來視野

可以看到,從目前技術和觀念狀況來說,人工智能意識并不具有實作的可能性,但我們是否就此得出未來也不會實作呢?并不能這樣決然地進行判斷。對于這一點,我們隻能小心翼翼地去試探。我們并不知道未來會出現哪種新的技術方法和材料能夠實作人腦的完全替代,目前尚無可能性并不表明未來沒有可能,是以我們隻能以實踐主義的态度來探索這一方向。

未來并不由我們來決定,而是由距離未來最近的那個階段的人們來決定。那些看似不悅耳的聲音,實則展現了我們對未來的期許與影響。我們在通往未來的道路上,希望現在的決策能夠對未來産生積極的影響,這是一種負責任的态度。然而,我們也必須意識到,從現在通往未來的過程充滿了各種期待,這些期待可能實作,也可能失敗,進而導緻烏托邦的榮光或者困境。無論哪種情況,我們都無法完全掌控未來的走向,因為其中蘊含無數不确定性。

如果真的有一天人類自身發生了變化,那麼,應該由最接近變革點的人們來決定是否需要改變,而無須我們這些距離較遠的人擔憂。我們不能忘記,人類已經在過去的幾千年裡發生了很多變化。5000年前的人們看到我們現在科技水準,可能會驚為天人;2000年前的人們則會覺得我們不可思議;而100年前的人們則可能會認為我們已經堕落。許煜提出,這是不同的宇宙技術導緻的,技術系統不僅僅是生活的輔助,而是幫助我們形成總體的宇宙觀。許煜把宇宙技術“看作知識生産的感覺性條件,更确切地說,它意味着一個時代和一片地域(它的宇宙)的集體美學體驗”。同樣地,我們也無法預知未來的樣子。人工智能到底能否湧現出意識,這可能不僅僅取決于技術,而是觀念、技術、倫理結構等等一同決定了如何去選擇。但如果我們忽略了人類現實結構的逐漸轉變,很可能會對某些特殊狀态感到恐懼。但這一恐懼是跨越式的觀念視角,忽視了現實情況往往受到各種實際因素的影響而發生持續的轉變。

人類總是能找到解決問題的方法,除非遇到某種人力已經無法解決的困境,如地球遭受撞擊、太陽侵襲、大地震、海嘯等,或者像科幻電影所假想的那樣,外星人入侵地球。然而,未來的人們會将這些問題視為難以解決的難題嗎?我們不得而知。或許那時的人們已經離開了地球,我們同樣無法預測。雖然我們本着對未來負責任的态度去思考可能發生的情況,但這種憂慮始終是當代文化的一個特征。這一特征表明我們人類整體具有反思觀念,但人類向賽博人的跨越卻是逐漸進行的。趙汀陽這樣來推論:“GPT概念隻是一個過渡性的人工智能型号,其設計概念注定了其在‘物種’上的局限性。如果人工智能将來通過某種新概念的設計而達到‘笛卡爾-胡塞爾機’,即有自主意識能力來生成任何意向對象的人工智能,那麼就形成了真正的主體和自我意識。”這表征了人工智能意識在觀念上的不确定性。也許在未來的某一時刻,我們視人工智能意識為必然,這一過渡也很可能是曲折變動地發生的。我們很少因某個奇點來認定某一狀态,如人工智能意識的湧現,而是不知不覺地被帶入這一境地,這很可能是社會結構與技術結構進行複雜博弈而産生的一個結果,并不單純是對一個實質性的生存或技術狀态的指認。

我們現在所處的時刻,是否正是那個需要做出決斷的時刻呢?這源于我們對人類自身的了解以及對危機性質的判斷。隻有在迫在眉睫的緊急情況下,如全民滅絕的威脅,才可能導緻我們做出一個選擇或需要一個選擇。除此之外,我們其實既擔憂又充滿希望,面對現實生活的挑戰不斷努力邁向更美好的未來。

時光流轉,我們容易為過去的遺憾而感傷,為未來的不确定而憂慮。然而,每個時代都有其獨特的憂慮和感慨,我們所擔憂的事物未必是後代所擔憂的,我們所崇敬的事物也許後代棄之如敝屣。到底人工智能能否湧現出意識,或者以何種方式湧現意識;人工智能意識問題到底是一個假問題,還是技術與社會意識的共謀?如此等等,也許并不一定需要我們來判斷。未來時間點上的人們如何去判斷,我們其實不得而知。唯一确知的是,他們必然面臨與現在不同的挑戰和機遇,他們也将面臨我們現在無法想象的新奇點。

從人工智能意識的實質論,轉為人工智能意識概念的誤區診治,再到包含未來次元的人工智能意識的行動實踐,我們通過陽關三疊式的讨論觸及人工智能意識的幾個關鍵次元,從中看到概念錯置所産生的迷惑,同樣,厘清概念雖然必要,但徹底根除人工智能意識也并非本文意旨。在人工智能的不斷實踐推進過程中,意識問題也會起起伏伏,在技術的不斷推進之中也會不斷在肯定與否定之間搖擺,形成鐘擺振蕩一般的軌迹。我們現在已經處于一個持續變革的時代,許多突破性的科技和創新正在改變我們的生活。例如,阿爾法狗戰勝李世石、ChatGPT的出現等。這些看似颠覆性的變革,容易給我們造成人工智能具有意識的印象;同時,文化似乎具有更廣闊的容納力,人工智能意識論隻會在日常生活中造成短暫的慌亂,随後一切又回歸平靜,我們也就接受了人工智能意識的可能性。人工智能進入工作和生活,直到下次人工智能新技術帶來另一份震驚,再次激發人工智能意識的問題。在這樣的不斷搖擺當中,我們可能會覺得:“人工智能具有意識總是好的,萬一實作了呢?”我們當然可以再加上一句:“人工智能有或沒意識,這個問題有那麼重要嗎?”

繼續閱讀