天天看點

數字化 | 大語言模型不能做什麼?

作者:社會科學報
數字化 | 大語言模型不能做什麼?

▋數字化

人工智能不太可能另起爐竈将人類智能遠遠甩在身後,像AlphaFold這樣的知識生産應用也表明,人工智能的未來發展趨勢将是深度的人機合作。

數字化 | 大語言模型不能做什麼?

原文:大語言模型不能做什麼

作者 | 上海社會科學院哲學研究所助理研究員 阮 凱

圖檔 | 網絡

以大語言模型為代表的大模型技術正在引領新的人工智能熱潮,人文社會科學領域也對大模型多有關注,相關讨論多集中于它的社會影響、倫理風險和治理政策。但在技術治理之外,如果我們以大語言模型為切入口,系統地總結大模型能做什麼、不能做什麼,哪些事情是人能做得好而大模型做不好的,這将有助于我們更好地發揮其優勢、認清其局限,避免對它的過度神化。

不能創造語言

大語言模型代表了人類在人機互動事業上的巨大進步,其成功也是人類智能的成功,表明了自然語言是人機互動的核心語言媒介,不是人說機器的語言,而是機器在說人的語言;不是人在模仿機器的思想表達,而是機器在模仿人類的思想表達。是以大模型至多是會使用語言,而遠談不上能創造語言、發明語言。恩格斯認為人類從勞動中創造了語言,他寫道:“語言是從勞動中并和勞動一起産生出來的,這個解釋是唯一正确的……動物,甚至高度發達的動物,彼此要傳遞的資訊很少,不用分音節的語言就可以互通資訊。”動物之間隻需要傳遞危險到來、食物在哪等簡單資訊,但勞動讓人類的語言得以産生,社會勞動和社會分工愈複雜,語言也就愈複雜。著名語言哲學家維特根斯坦和恩格斯的觀點不謀而合,他做了這樣一個比喻:“我們的語言可以被看作一座老城,錯綜的小巷和廣場,新舊房舍,以及在不同時期增建改建過的房舍。”語言之是以像老城一樣,是因為老城是不斷修建、錯綜複雜的,而語言也同樣随着勞動和實踐的深入而不斷地生成、變化與發展。

而大語言模型的基礎仍然是深度學習技術,即利用大量的文本資料來訓練模型,隻不過模型的參數規模更為龐大,但與産生語言的勞動、實踐根本不沾邊,比如,用英語語料訓練的模型也自然隻會說英語。反觀人類,不同國家、不同民族的人往往說着不同的語言,即使同一個國家也有不同的方言,比如漢語方言就通常分為十大方言,這些多樣的語言生長在人們的生産勞動和生活實踐土壤之上。如果大語言模型不能像人一樣創造語言,那麼我們就清楚了大語言模型的第一個局限性,更沒有必要對大語言模型頂禮膜拜。

數字化 | 大語言模型不能做什麼?

不能深度了解人類

大語言模型的優秀對話表現,緣于AI訓練師對模型的不斷訓練,以及設計了強化學習的獎勵機制。大語言模型在人機互動上的優秀表現,讓一部分使用者誤以為人工智能一下子具有了像人一樣的心智,人機之間達成了充分的了解,似乎通用人工智能近在咫尺。但從語言哲學的視角看,了解有多個層面和程度,能夠給出恰當回應隻是了解的一個部分,這并不意味着它能完全了解人類,因為深度了解一句話,需要對說話者的語境有全面了解。如同維特根斯坦所認為的,“環境給予這事情以重要性”,字面資訊往往是浮出水面的冰山一角,而環境資訊往往是水面以下的冰山,包括大到時代風貌、社會結構、生活形式,小到說話者的習慣态度、立場觀點、情感情緒等豐富内容。熟人之間的深入了解,往往是因為對話雙方熟知彼此的環境資訊,一句話、一個單詞甚至一個動作就能傳遞豐富的資訊。

人類通過日積月累的具身體驗、生存感受、經驗觀察、交往實踐、總結概括等活動,才能準确把握對話的環境資訊。而當人們與大語言模型對話時,就與熟人之間的對話了解有所不同,我們隻管提出問題,而會極度省略環境資訊,即使偶然附上環境資訊,對這些資訊的提供也不會完全窮盡和準确。大語言模型在應對人類問題時選擇的政策是“既然你不說,我也不問”,也不會去搜集提問者的環境資訊,而是專注像單字接龍般更好地回應提問者的問題。大語言模型雖然常常能回答人類提出的問題,但這種回答也隻意味着對人類的淺層了解,而深層了解不僅需要語言上的恰當回應,也需要生活實踐上的了解。從語言哲學角度看,語言了解問題要結合生活形式、人類生存問題加以考慮,隻有關注生活形式和生活世界,在生活實踐上達成了解才是深層的了解。比如我們看到天災人禍,會有切身感受,這是一種悲喜與共的深層了解,羅素所言的“對人類苦難不可遏制的同情”也是超越淺層了解的深層了解。是以說,大語言模型目前隻是人類生存實踐的旁觀者和應答者,缺乏共情能力,還達不到像人類了解那樣的深刻性與豐富性,而深層了解更彰顯人類智能的特殊性。

數字化 | 大語言模型不能做什麼?

不能全面嵌入社會

人工智能的發展史,也是對什麼是智能的了解史。一方面,随着人工智能的發展,被奉為圭臬的圖靈測試已難以全面評估人工智能的智能水準了。即使有些機器通過圖靈測試,它可能仍與人類智能相差很遠。另一方面,包括“智能”在内的任何概念都與人類的話語實踐緊密地結合在一起,智能概念的内涵不是固定的,而是随着人類對智能的認識而不斷地被深入了解,在此過程中人們逐漸意識到,人類智能的提升離不開人類社會的進步。

馬克思認為,人腦、勞動和語言三者互相促進,而社會為人類的大腦、勞動和語言的發展提供了“強有力的推動力”和“更加确定的方向”。從馬克思哲學的視角看,社會無疑是人類智能的基石,聰慧的個體如果脫離社會,其智力發展也會停滞不前,殘缺的個體如果嵌入社會,其智力也會得到盡可能充分的發展,“狼孩”、海倫·凱勒等案例無不說明這一點。著名社會學家哈裡·柯林斯更是指出,目前的人工智能發展離完全嵌入人類社會還很遠。他提出兩大金律:其一,沒有計算機能夠流利地使用自然語言,通過嚴格的圖靈測試并擁有完全的類人智能,除非它完全嵌入正常的人類社會;其二,基于目前技術的漸進式進步,無法讓計算機完全嵌入人類社會。從柯林斯的觀點看,大語言模型的技術特點仍然是深度學習的漸進式進步而已,它還不能完全社會化,是以無論它們變得多麼好,以ChatGPT為代表的大語言模型仍然不能像人一樣在社會中進行交往與實踐,不能以人類體悟語境的方式來體悟語境,是以,談論ChatGPT擁有媲美人類的智能,完全了解人類的語言,還為時尚早。

我們需要以客觀中道和實事求是的态度看待大語言模型,大語言模型不能創造語言、不能深度了解人類、不能全面嵌入社會這三個層面揭示的是一個共同的問題,即人類和大模型的智能—語言機制有着根本的不同。今天我們思考大語言模型不能做什麼,其價值是:第一,有助于提防新一代人工智能的泡沫化發展,明确大語言模型的界限。例如,由于盲目樂觀,由歐盟牽頭并耗費10年和近47億人民币的“人類腦計劃”如今仍然沒能取得預期成果,飽受社會各界批評。如果不去思考大語言模型的界限,一股腦地發展大語言模型,也可能會陷入與“人類腦計劃”相似的困境。第二,有助于全面思考人工智能未來的發展方向。既然現有的深度學習技術無法讓人工智能全面社會化,那麼這會引導科學家去探索,未來什麼樣的技術方案能讓人工智能進一步社會化呢?第三,有助于凸顯人機合作的重要價值。大語言模型等新興AIGC技術展現了未來人工智能的發展方向将是更緊密的人機合作,人類智能中仍有很多精妙的地方值得機器學習,人工智能不太可能另起爐竈将人類智能遠遠甩在身後,像AlphaFold這樣的知識生産應用也表明,人工智能的未來發展趨勢将是深度的人機合作。

(本文系上海市社科規劃青年課題“經典倫理學與認知科學哲學視域下的機器倫理研究”階段性成果)

文章為社會科學報“思想工坊”融媒體原創出品,原載于社會科學報第1867期第6版,未經允許禁止轉載,文中内容僅代表作者觀點,不代表本報立場。

本期責編:宋獻琪

拓展閱讀

人才強國 | 人工智能時代職業技能疊代向何處去

數字化 | 大語言模型需要克服諸多關鍵問題

繼續閱讀