天天看點

肖仰華|生成式語言模型與通用人工智能:内涵、路徑與啟示

作者:将門創投

以ChatGPT為代表的大規模生成式預訓練語言模型帶動了一系列通用人工智能(AGI: Artificial General Intelligence)技術的迅速發展。AGI已經掀起新一輪資訊技術革命,成為一種先進的生産力,深入了解AGI的本質顯得尤為迫切。大規模生成式語言模型為代表的通用人工智能技術,以生成式AI為主要形态,具備情景化生成能力,形成了知識、能力、價值三個階段的智能煉就路徑。随着相關技術的發展,機器的智能水準快速提升,将帶來人機邊界模糊及與其相關的一系列社會問題。AGI的發展路徑具有“填鴨灌輸”式學習、“先通再專”等特點,在一定程度上颠覆了人類對機器智能實作路徑的傳統認識,倒逼人類在世界模組化、知識擷取、自我認知等層面進行反思。人類需高度警醒AGI帶來的挑戰,并積極抓住其帶來的機遇,推動建構新型的人機和諧關系。

作者簡介:

肖仰華,複旦大學計算機科學技術學院教授、博導,上海市資料科學重點實驗室主任。研究方向為知識圖譜、知識工程、大資料。主要著作有《圖對稱性理論及其在資料管理中的應用》、《知識圖譜:概念與技術》(合著)等。

一、前言

自2022年12月ChatGPT釋出以來,大規模生成式預訓練語言模型(Generative Language Model)在學術界與工業界引起軒然大波,帶動了一系列通用人工智能技術(AGI: Artificial General Intelligence)的快速發展,包括圖文生成模型,如Midjourney的高精度、高度仿真的圖文生成;具身多模态語言模型,比如谷歌(Google)公司連續推出PaLM-E(D. Driess et al., 2023)以及PaLM 2(A. Rohan et al., 2023)等。AGI已經從模拟人類大腦的思維能力(以語言模型為代表),快速演進至“操控身體”的具身模型(以具身大模型為代表)。AGI全面侵襲從藝術創作到代碼生成、從問題求解到科學發現、從問答聊天到輔助決策等人類智能的各個領地,人類智能所能涉及的領域幾乎都有AGI的蹤迹。一場由AGI帶動的新一輪資訊技術革命已然席卷而至。人類迎來一場有關“智能”本身的技術革命。作為一種先進的生産力,AGI既給全社會帶來令人興奮的機遇,也來帶來令人擔憂的挑戰。興奮與擔憂歸根結底是源于我們對AGI的了解還遠遠跟不上其發展速度。具體而言,人類對于AGI技術原理、智能形态、能力上限的思考,對其對社會與個人影響的評估,明顯滞後于AGI的發展速度。可以說,快速發展的AGI與人類對其認知的顯著滞後構成了一對鮮明的沖突,把握這一沖突是了解目前AGI發展規律與其産生的社會影響的關鍵。也正是基于對上述沖突的認識,不少科學家與AI企業領袖發出了暫停巨型大模型實驗的呼聲,呼籲加快安全可證明的AI系統的研制。誠然,了解AGI十分困難。AGI這個術語中的三個單詞,分别從不同角度表達了了解AGI面臨的挑戰。從其核心詞“智能(Intelligence)”來看,一直以來關于什麼是智能,就存在不同的觀點,比如傳統計算機科學認為,“擷取以及應用知識與技能”的能力是智能,但需思考這個定義是否仍然适用于今天以大規模生成式語言模型為代表的AGI。“通用(General)”一詞加劇了了解AGI的困難。相對于傳統的面向特定(specific)功能的AI,AGI旨在模拟人類的心智能力,人類智能的獨特之處鮮明地展現在其能夠針對不同環境作出适應性調整,能夠勝任不同類型甚至從未見過的任務。專用AI與通用AI存在怎樣的聯系與差別,是先實作通用AI還是先實作專用AI?General一詞将會引發很多諸如此類的思考。“人工的(Artificial)”一詞則道出了AGI人工創造物的本質,而非自發從自然環境中進化而成的智能。這自然就提出了工具智能與自然智能的異同等一系列問題。盡管挑戰重重,本文仍然嘗試針對AGI的某些方面展開分析。本文聚焦于生成式人工智能,特别是大規模生成式語言模型為代表的通用人工智能技術。本文所談及的“智能”,不局限于人類智能,也包括機器智能,将以機器智能與人類智能作為彼此的參照,進行對比分析。本文将對由生成式語言模型發展而引發的“智能”的内涵、“智能”的演進路徑等問題進行詳細分析,并在這一基礎上反思人類智能的諸多方面,包括創造性、世界模組化、知識擷取、自我認知等。筆者相信本文的思考一方面可以消除人們對于機器智能快速進步的擔憂,另一方面也能為機器智能的進一步發展掃除障礙,有助于建立新型的人機和諧關系。在此需要說明的是,本文的部分思考與結論超出了目前的工程實踐所能檢驗的範圍,仍需要付諸嚴格論證與實踐檢驗。二、什麼是智能?ChatGPT何以成功?生成式VS判别式。ChatGPT是生成式人工智能的代表。生成式AI在文本生成、文圖生成、圖像生成等領域取得了較好的效果。傳統的人工智能多屬于判别式人工智能。為何是生成式AI而非判别式AI成為AGI的主要形态?這是一個值得深思的問題。判别式AI,通過标注資料的訓練,引導模型習得正确給出問題答案的能力。生成式AI,往往針對無标注資料設計基于遮蔽内容還原的自監督學習任務進行訓練,引導模型生成符合上下文語境的内容。生成式模型不僅具備生成結果的能力,也能夠生成過程與解釋。是以生成任務可以視作比判别任務更具智力挑戰性的任務,能夠有效引導模型習得高水準智能。具體而言,對于判斷題,判别式AI隻需給出對或錯的答案,即便随機猜測,仍然有百分之五十蒙對的機率。但是,生成式AI不僅需要生成答案,還可能需要同時生成解題過程,這就很難蒙混過關。是以相對于判别而言,生成可以說是更加接近智能本質的一類任務。智能與情景化生成能力。智能的本質是什麼?大模型的發展給人類對這一問題的思考帶來了很多新的啟發。大模型的智能本質上是情景化生成(Contextualized Generation)能力,也就是根據上下文提示(Prompt)生成相關文本的能力。是以大模型的應用效果在一定程度上取決于提示有效與否。如果我們能夠給出一個有效且合理的提示,那麼ChatGPT這類大模型往往能夠生成令人滿意的答案。這種情景化生成能力(“提示+生成”的能力)不僅适用于文本,也廣泛适用于圖像、語音、蛋白質序列等各種不同類型的複雜資料。不同的資料上下文不同,例如對于圖檔而言,其上下文是周邊圖像。大模型的情景化生成能力是通過訓練階段的上下文學習(In-context learning)而形成的(Q. Dong et al., 2022)。從數學本質來講,大模型在訓練階段習得了Token或者語料基本單元之間的聯合機率分布。情景化生成可以視作條件機率估算,即給定上下文或提示(也就是給出證據),根據聯合分布推斷出現剩餘文本的機率。傳統對于智能的了解多少都與“知識”有關(如把智能定義為“知識的發現和應用能力”),或與人有關(如把智能定義為“像人一樣思考和行為的能力”),其本質還是以人類為中心,從認識論視角了解智能。大模型所呈現出的這種情景化生成能力,則無關乎“知識”,“知識”說到底是人類為了了解世界所做出的人為發明。世界的存在不依賴“知識”,不依賴人類,情景化生成擺脫了人類所定義的“知識”,回歸世界本身——隻要能合理生成這個世界就是智能。智能被還原為一種生成能力,這種智能可以不以人類為中心,也可以不依賴人類的文明,這是AGI給我們帶來的重要啟示。智能的分析與還原。大模型訓練與優化過程能夠為我們更好地了解智能的形成過程提供有益啟發。通用大模型的“出爐”基本上要經曆三個階段(W. X. Zhao et al., 2023):第一個階段是底座大模型的訓練;第二個階段是面向任務的指令學習,也就是所謂的指令微調;第三個階段是價值對齊。第一個階段底座大模型的訓練本質上是讓大模型習得語料或者資料所蘊含的知識。但是這裡的知識是一種參數化、機率化的知識(本質上模組化了語料中詞彙之間的一種聯合分布),使得情境化生成成為可能。是以,第一階段的本質是知識擷取(或者說知識習得),第二階段指令學習旨在讓大模型習得完成任務的能力,最後一個階段則是價值觀念的習得。大模型的智能被分解為知識、能力與價值三個階段,這是個值得關注的特性。知識是能力與價值的基礎,是以底座模型的“煉制”尤為關鍵。ChatGPT經曆了2018年初版GPT-1到2022年GPT-3.5近四年的訓練與優化。大模型的知識底座越深厚、越廣博,後續能夠習得的技能就越複雜、越多樣,價值判斷就越準确、價值對齊就越靈活。大模型将智能的三個核心要素互相剝離,而人類的知識、能力與價值習得,往往是雜揉在一起的。我們很難界定國小課本中的某篇文章是在傳授知識、訓練技能亦或是在塑造價值。大模型的這種分離式的智能發展,可以類比于人類社會的高等教育。人類社會的大學教育旨在培養學習能力以擷取知識,碩士教育旨在培養解題能力以解決問題,博士教育則旨在培養價值判斷能力以發現問題。知識、能力和價值相剝離對于未來智能系統架構、建立新型的人機協作關系、設計人機混合的智能系統架構均有着積極的啟發意義。随着機器智能的逐漸發展,人類相對于機器而言所擅長的事物将會逐漸減少。但是,在某些特定場景仍存在一些人類介入的空間。未來人機混合系統發展的關鍵仍是回答什麼工作最值得由人來完成。看似完整的任務隻有經過分解,才能拆解出人機各自擅長與适合的子任務。例如,将知識和能力剝離對于保護私域知識極具價值:大模型負責語言了解等核心任務,而機密的資料與知識仍然交由傳統的資料庫或者知識庫來管理。這樣的系統架構,既充分利用了大模型的核心能力,又充分兼顧了知識私密性。智能測試與人機區分。通用人工智能技術的發展顯著提升了機器的智能水準,特别是語言了解水準,機器在文本處理、語言了解等相關任務中已達到普通人類甚至語言專家的水準。而随之而來的一個十分關鍵的問題是:人機邊界日益模糊。我們已經很難僅僅通過幾輪對話去判斷視窗背後與你交流的是人還是機器。換言之,傳統的圖靈測試已經難以勝任人機區分的使命。使用過ChatGPT的人都深有體會,ChatGPT最擅長的就是聊天,即便與其長時間聊天,我們可能都不會覺得無趣。人機邊界的模糊會帶來很多社會問題。首先,普通群眾,尤其是青少年,可能出于對技術的信任而沉溺于ChatGPT類的對話模型中。當ChatGPT日益智能,我們習慣了向其提問,習慣了接受它的答案,久而久之,人類賴以發展的質疑精神就會逐漸喪失。在日益強大的AGI面前,如何避免人的精神本質的退化?這些問題需要我們嚴肅思考并回答。其次,當人機真假難辨,虛假資訊泛濫,欺詐将會層出不窮。最近越來越多犯罪分子已經通過AI換臉、AI視訊生成,成功實施了多起欺詐案件。如何治理由人機邊界模糊帶來的社會性欺騙将成為一個十分重要的AI治理問題。最後,還值得注意的是驗證碼,這一我們在日常生活中廣泛使用,卻很快會變成問題的應用。驗證碼是我們進行人機區分的利器,但是随着AGI的發展,尤其是在其對于各類工具的操控能力日益增強之後,驗證碼所具備的人機區分功能将會面臨日益嚴峻的挑戰。随着人形機器人技術的日益成熟,未來如何證明你是人而非機器,或者反之,如何證明機器是機器而不是人将會成為越來越困難的問題。人機邊界的模糊本質上歸結于人機智能測試問題。我們需要刻畫出人類智能獨有的、不能或者至少是難以被機器智能所侵犯的領地。從機器智能的發展曆史來看,這個領地的範圍将會越來越窄。我們曾經認為在下圍棋這樣的高度智力密集活動中機器難以超越人類,也曾認為在進行高品質對話中機器難以超越人類,更曾認為蛋白質結構預測這樣的科學發現是機器難以超越人類的……這些機器難以超越人類的任務清單曾經很長,如今已經越來越短。圖靈測試已然失效,但是人類還來不及提出新的有效的代替性測試方案。有人提出,唯有人類會犯錯及其行為的不确定性是人類獨具的。這樣的觀點不值一駁,因為機器很容易植入一些錯誤與不确定性以掩飾自己的智能。未來我們如何證明機器試圖越獄,以及機器是否正在掩飾自己的能力,這些都是AI安全需要高度關注的問題。三、智能的演進路線,通用人工智能如何發展與進步?“回報進化”與“填鴨灌輸”。人類的智能是一種典型的生物智能,是經過漫長的進化發展而形成的。人類在自然與社會環境中不斷地實踐、接收回報、持續嘗試,形成了高度的智能。各類動物的智能都可以歸類到進化智能。進化智能的演進需要漫長的時間,換言之,隻要給予足夠的時間,自然環境或将就能塑造任何水準的智能。低等動物經過漫長時間的洗禮也有可能發展出先進智能。但是目前機器智能走的是一條“填鴨灌輸”式的路徑,是一條實作先進智能的捷徑。将人類社會已經積累的所有語料、書籍、文獻“灌輸”給大模型,經過精心“煉制”,大模型就能習得人類積累數千年的文明成果。雖然大模型“煉制”也需要耗費數天、數月的時間,但相對于人類智能的漫長進化曆程,幾乎就是轉瞬之間。機器能夠在如此短暫的時間内習得人類數千年積累的知識,這本身已是奇迹。人類社會多将“填鴨灌輸”視作一種機械、低效的知識傳授方式,而這卻恰恰成為人類向機器傳授知識的高效方式。如果單純以考分評價學生,粗暴的填鴨式、灌輸式的教育十分高效。但這種教育培養出的學生往往高分低能,難以靈活應用知識解決實際問題。是以我們的學生還需要接受大量的實踐教育,從回報中學習,最終成為行家裡手,将知識融會貫通。人類專家的養成過程對于了解大模型的發展過程極具啟發。目前,大模型的填鴨式學習階段已經基本完成,很快大模型将操控各類工具、開展實踐式學習,進而進入從實踐習得知識的新階段。“先通再專”還是“先專再通”。通用人工智能的發展帶給我們的另一個啟示在于機器智能走出了一條“先通再專”的發展路徑。從大規模語言模型的應用方式來看,首先要“煉制”通用的大語言模型,一般來講訓練語料越是廣泛而多樣,通用大模型的能力越強。但是這樣的通用大模型在完成任務時,效果仍然差強人意。因而,一般還要經過領域資料微調與任務指令學習,使其了解領域文本并勝任特定任務,可見大模型的智能是先通用,再專業。通用智能階段側重于進行通識學習,習得包括語言了解與推理能力及廣泛的通用知識;專業智能階段則讓大模型了解各種任務指令,勝任各類具體任務。這樣一種智能演進路徑與人類的學習過程相似。人類的基礎教育聚焦通識學習,而高等教育側重專識學習;武俠小說中的功夫高手往往先練内力再習招式。這些都與大模型“先通再專”的發展路徑相似。大模型“先通再專”的發展路徑颠覆了以往人工智能的主流發展路徑。ChatGPT誕生之前,AI研究的主陣地是專用AI或者功能性AI,其主旨在于讓機器具備勝任特定場景與任務的能力,比如下棋、計算、語音識别、圖像識别等等。傳統觀念認為,若幹專用智能堆積在一起,才能接近通用智能;或者說如果專業智能都不能實作,則更不可能實作通用智能。由此可以看出,“先專再通”是傳統人工智能發展的基本共識。但是,以ChatGPT為代表的大規模生成式語言模型,基本颠覆了這一傳統認識,并說明機器智能與人類智能一樣,需要先具備通識能力才能發展專業認知。在新認識下,我們需要重新了解領域人工智能(Domain-Specific AI)。領域是與通用相對而言的。事實上,沒有通用認知能力,就沒有領域認知能力。舉個例子,醫療是個典型的垂直領域,傳統觀念認為可以以較低代價搭建診斷某類疾病的智能系統。比如,針對耳鳴疾病,傳統方法一般将與之相關的專業知識、文本、資料灌輸給機器,以期實作耳鳴這個極為細分病種的智能診斷。但在實踐過程中,這一想法從未真正成功。究其根源,醫生要了解疾病,就需要先了解健康,而健康不屬于疾病的範疇。一個耳科醫生接診的大部分時間是在排查無需治療的健康情況。也就是說,要真正了解某個領域,恰恰需要認知領域之外的概念。由此可見,領域認知是建立在通識能力基礎之上的。這些新認識為我們重新發展領域認知智能帶來新的啟發,可以說在ChatGPT類的通用大模型支撐下,各領域認知智能将迎來全新的發展機遇。先符号再體驗,先形式再内容。大規模語言模型通過使用文本或符号表達的語料訓練而成。人類的自然語言是一種符号化的表達方式,語言模型表達了語言符号之間的統計關聯。然而,符号隻是形式,單純基于符号的統計學習不足以讓機器了解符号所指或者語言的内涵。純形式符号的智能系統勢必會遭遇類似約翰·塞爾“中文屋”思想的責難。是以,AGI不是停留在單純的語言模型階段,而是積極融合多模态資料進行混合訓練。各類多模态資料,比如圖像、語音、視訊,能夠表達人類豐富的世界體驗(X. Zhu et al., 2022)。舉個例子,人們對于“馬”這個符号的了解,一定程度上取決于人們對馬這一動物的經驗和認識,比如高亢的嘶鳴(語音)、健壯的形象(圖像)、奔騰的動作(視訊)。人的體驗支撐了人對于“馬”這個概念的了解,正如人們對于萬馬齊喑的悲涼體會是建立在對于馬的健康、積極形象的體驗基礎之上。是以AGI走出了一條先符号再體驗、從形式到内容的發展路徑。這和人類智能的發展過程恰好相反,人類是先有了豐富經驗或體驗,才抽象成符号、文字與概念。“先大腦再身體”與“先身體再大腦”。目前AGI的發展趨勢是先發展語言模型,以模拟人腦的認知能力,再基于機器大腦的認知能力驅動各類工具與身體部件。大腦的複雜規劃與推理能力對于身體與工具在現實世界中的互動與動作是不可或缺的。AGI走出了一條“先實作大腦的認知能力,後實作身體與實體世界互動能力”的發展路線。很顯然,AGI的這條發展路線與人類智能的進化有着顯著的不同。人類在一定程度上是先具備身體能力,并在身體與世界的持續互動過程中,塑造和發展大腦的認知能力。傳統的人工智能技術路線也傾向于先實作身體各器官或部件的基本功能,再實作大腦的複雜認知能力,傾向于接受機械身體與現實世界的互動能力比大腦的複雜認知能力更易實作的觀點。然而,目前的人工智能發展路徑在一定程度上颠覆了我們對機器智能實作路徑的傳統認識。四、由通用人工智能引發的人類自我審視及啟示組合泛化是一種創造,但可能是低級的創造形式。AGI之是以吸引了業界的高度關注,一個很重要的原因在于它呈現出了一定的創造能力。我們發現ChatGPT或者GPT-4,已經擁有了比較強大的組合泛化能力:大模型經過足量常見任務的指令學習,能夠勝任一些新的組合任務。具體來說,大模型學會了完成a、b兩類任務,它就一定程度上可以完成a+b這類新任務。比如GPT-4能夠使用莎士比亞詩詞風格來書寫數學定理證明。實際上這是由于GPT-4分别習得了數學證明與寫莎士比亞詩詞兩種能力,進而組合泛化出的新能力。第一,我們必須認可大模型的這種組合創新能力。反觀人類社會的很多創新,本質上也屬于組合創新,這種創新形式甚至占據了絕大多數。比如,在工科領域的技術創新中,很多研究所學生擅長把針對A場景所提出的B方法應用到X場景并取得了不錯的效果;爆米花式電影中平庸的劇情創作,大都通過借用a故事的架構、b故事的人物,套用c故事的情節,使用d故事的橋段,等等。第二,AGI的組合創新能力遠超人類認知水準。AGI可以将任意兩個學科的能力進行組合,這裡的很多組合可能是人類從未想象過的,比如利用李清照詩詞的風格寫代碼注釋。這種新穎的組合創新能力有可能是AGI給我們帶來的寶貴财富,将極大地激發人類的想象力。第三,AGI的這種組合創新能力,基本上宣告了人類社會的拼貼式内容創新将失去意義。因為,AGI能夠組合創新的素材,以及其生成的效率都遠超人類。我們曾經引以為傲的內建創新也将失去其光環,而原始創新在AGI面前顯得更加難能可貴。第四,AGI的組合創新将迫使人類重新思考創新的本質。人類所能做出的而AGI無法實作的創新将更加凸顯其價值。AGI将促使人類不再沉迷于随機拼接或簡單組裝式的創造,而是更加注重富有内涵、視角獨特、觀點新穎的内容創造。自監督學習是世界模組化的有效方式。自監督學習可以視為一種填空遊戲,即根據上下文填補空白。例如,我們事先遮蓋住一個完整句子中的某個單詞,然後讓機器根據這個句子的上下文還原被遮蓋的詞語。同樣地,就圖像而言,我們可以遮擋部分圖像區域,讓大模型根據周邊的背景圖像還原出被遮擋圖像的内容。這樣一種自監督學習範式為什麼能夠成就ChatGPT這類大規模預訓練語言模型,是個值得深思的問題。“遮蔽+還原”式樣的自監督學習任務旨在習得世界模型。比如,人們都知道高空抛重物,物體一定會下落,而不會向上飄也不可能懸在空中。最近很多學者,包括圖靈獎獲得者Yann LeCun都指出了世界模型(Y. Lecun, 2022)對于AGI的重要性。人類社會業已積累的資料展現了人類對于現實世界的認識,通過對這些資料的學習,機器将有機會建立世界模型。當資料足夠多、足夠精、足夠豐富時,就能在一定程度上表達人類對複雜現實世界的完整認知,基于“遮蔽+還原”的自監督學習機制,機器能夠逼真地建立起關于世界的模型。反觀人類的世界模型,很大程度上來自于經驗與文明傳承。一方面,我們在身體與世界互動過程中形成經驗進而建立世界模型;另一方面,文化傳播和教育傳承塑造着我們對世界的認知。是以人類對世界模組化的方式與機器模組化世界的方式有着本質的不同。大模型所習得的隐性知識。大規模預訓練語言模型借助了Transformer(A. Vaswani et al., 2017)這樣的深度神經網絡架構,習得了語言元素之間的統計關聯,并具備了情境化生成能力。而大模型之大,主要就展現在其參數量巨大。這樣一個複雜的深度網絡空間編碼了語料中所蘊含的各種知識,這種知識具有參數化表達與分布式組織兩個鮮明特點。所謂分布式組織,是指某一個知識并不能具體對應到某個具體神經元,而是分散表達為不同神經元的權重參數及其之間的互聯結構。在特定輸入下,通過激活某些神經元、以神經網絡計算方式擷取知識。是以,大模型可以視作隐性知識的容器。大模型所編碼的隐性知識顯著超出人類業已表達的顯性知識的範圍。從某種意義上說,人類能用自然語言表達的知識是可以窮盡的,是有限的。而人類在潛意識下用到的常識、文本中的言下之意、領域專家難以表達的經驗等等,都是以隐性知識的形式存在的。大模型為我們認識這些隐性知識提供了更多可能性。大模型是通才,它是利用全人類、全學科的語料訓練生成的,它所習得的某些隐性關聯或者統計模式,有可能對應到人類難以言說的隐性知識。比如外交場景下的遣詞造句多有言下之意、往往被賦予了特殊内涵,大模型的出現給解讀這種言下之意與獨特内涵帶來新的機會。大模型所編碼的知識,很多是人類從未解讀過的,特别是跨學科知識點之間的隐性關聯。這也是大模型給我們整個人類文明發展帶來的一次重大機遇。随着大模型對隐性知識解讀的日益深入,人類的知識将呈現爆炸性增長。我們不得不思考一個深刻的問題:過量的知識會否成為人類文明發展不可承受之重。事實上,當知識積累到一定的程度,單純的知識擷取已經偏離了人類文明發展的主航道。在知識急劇增長的未來,發現“智慧”比擷取“知識”更加重要。很多時候,我們并不需要太多知識,隻要具備從大模型擷取知識的能力即可。理論上人類每個個體(即便人類最傑出的精英)所能知曉的知識量也一定遠遠低于智能機器。我們每個人的價值不是展現在擁有多少知識,而是知道如何使用知識,使用知識的智慧将是人類個體核心價值所在。AGI的發展倒逼人類社會的發展從追求知識進入追求智慧的新階段。大模型倒逼人類重新認識自我。AGI技術将與人類社會發展程序深度結合,為人類社會帶來前所未有的重大機遇和嚴峻挑戰。随着人工智能技術的迅速發展,AGI所帶來的風險也逐漸凸顯。首先,AGI給AI技術治理和社會治理帶來挑戰。與目前的人工智能相比,AGI失控将會帶來更加災難性的後果。目前,AGI技術“失控”的風險日益增加,必須及時幹預。比如,AGI降低了内容生成門檻,導緻虛假資訊泛濫,已經成為一個嚴峻的問題。再比如,AGI作為先進生産力,如果不能被大多數人掌握而是掌握在少數人或機構手中,技術霸權主義将會對社會發展帶來消極影響。其次,AGI技術将會對人類個體的發展帶來挑戰。未來的社會生産似乎經由少數精英加上智能機器就可以完成,工業時代的2∕8法則到了AGI時代可能會變成2∕98法則。換言之,越來越多的工作與任務在強大的AGI面前可能失去意義,個體存在的價值與意義需要重新定義。我們的壽命或将大幅度延長,但是生命的質感卻逐漸消弱。如何幫助我們中的絕大多數人尋找生命的意義?如何優雅地打發休閑時光?這些都是需要深度思考的問題。最後,AGI的進步可能會帶來人類整體倒退的風險。當人類發展了家禽技術,打獵技術就明顯倒退;當紡織機器日益成熟,繡花技藝就顯得沒有必要。我們的各種非物質文化遺産、各類體育運動,本質上都是在防止人類的倒退。不能因為機器擅長完成人類的某項工作或任務,就放任人類的此項能力逐漸退化。如果說以往各種技術的進步隻是讓人類逐漸遠離了大自然的原始狀态,人類在與惡劣的自然環境的搏鬥中所發展出的四肢能力的倒退是人類文明發展必須作出的犧牲;那麼,此次旨在代替人類腦力的AGI會否引起人類智能的倒退?智能的倒退必然引起人類主體性的喪失與文明的崩塌。如何防止我們的腦力或者說智能的倒退,是個必須嚴肅思考的問題。盡管面臨重重挑戰,但AGI毫無疑問是一種先進生産力,其發展的勢頭是不可阻擋的。除了前文提到的種種具體的技術賦能之外,這裡要從人類文明發展的高度再次強調AGI所帶來的全新機遇。首先,AGI對于加速人類知識發現程序具有重大意義。前文已經讨論過對大語言模型已編碼的隐性知識的解讀将會加速人類的知識發現,但同時也會帶來知識的貶值。未來我們會見證知識的爆炸所帶來的“知識無用”。其次,AGI發展的最大意義可能在于倒逼人類進步。平庸的創作失去意義、組合創新失去意義、窮舉式探索失去意義……這個清單注定會越來越長。但是人的存在不能失去意義,我們要重新找尋自身價值所在,重新思考人之是以為人的哲學命題。

五、結語

對于AGI的探索和思考才剛剛開始,我們還有很長的路要走。我們必須高度警醒AGI所帶來的問題,并充分重視AGI所創造的機會。兩千多年前,蘇格拉底說“認識你自己”,今天在AGI技術發展的倒逼下,人類需要“重新認識你自己”。

作者:肖仰華來源:公衆号【學術前沿雜志】

Illustration by IconScout Store from IconScout

-The End-

掃碼觀看!

本周上新!

“AI技術流”原創投稿計劃

TechBeat是由将門創投建立的AI學習社群(www.techbeat.net)。社群上線480+期talk視訊,2400+篇技術幹貨文章,方向覆寫CV/NLP/ML/Robotis等;每月定期舉辦頂會及其他線上交流活動,不定期舉辦技術人線下聚會交流活動。我們正在努力成為AI人才喜愛的高品質、知識型交流平台,希望為AI人才打造更專業的服務和體驗,加速并陪伴其成長。

投稿内容

// 最新技術解讀/系統性知識分享 //

// 前沿資訊解說/心得經曆講述 //

投稿須知

稿件需要為原創文章,并标明作者資訊。

我們會選擇部分在深度技術解析及科研心得方向,對使用者啟發更大的文章,做原創性内容獎勵

投稿方式

發送郵件到

[email protected]

或添加從業人員微信(chemn493)投稿,溝通投稿詳情;還可以關注“将門創投”公衆号,背景回複“投稿”二字,獲得投稿說明。

>>> 添加小編微信!

關于我“門”▼

将門是一家以專注于數智核心科技領域的新型創投機構,也是北京市标杆型孵化器。公司緻力于通過連接配接技術與商業,發掘和培育具有全球影響力的科技創新企業,推動企業創新發展與産業更新。

将門成立于2015年底,創始團隊由微軟創投在中國的創始團隊原班人馬建構而成,曾為微軟優選和深度孵化了126家創新的技術型創業公司。

如果您是技術領域的初創企業,不僅想獲得投資,還希望獲得一系列持續性、有價值的投後服務,歡迎發送或者推薦項目給我“門”:

肖仰華|生成式語言模型與通用人工智能:内涵、路徑與啟示

繼續閱讀