作為地球的主人,我們不能把認知權力讓渡給任何工具。我們需要的不是知識積累的速度,而是品質。我們應該,也可以把控知識發現的節奏。同時,我們需要加強科研後備軍的基本素養和技能的培養,我們須恪守科技倫理,堅持以人為本、科技向善。
如果要票選目前社會經濟發展中的熱詞,“人工智能”(Artificial Intelligence, AI)一詞一定可以入選;如果要盤點目前科技界的重大進展,AI技術的進展也一定會入圍,并會名列前茅,雖然其進展主要集中在深度學習這個子領域。用“如日中天”“衆星捧月”描述當下AI的地位毫不為過!造成這種少見現象的原因不僅僅是AI技術本身10餘年來令人驚豔的突破性進展,還包括AI技術對社會經濟各行各業,對科學技術各個學科的發展帶來的深遠甚至颠覆性的影響。在大陸,AI的熱潮較國際更盛。
我不是AI具體技術的研究者,但作為AI領域的大同行,作為AI技術發揮作用的基礎——計算系統中軟體技術的研究者,從目前的熱潮中,我看到了太多“炒作”和“非理性”導緻的 AI“過熱”現象,也對目前AI發展技術路徑多樣性的欠缺萌生了一些擔憂。我認為,有必要認真審視和反思目前AI的本質及其可能帶來的影響,以及人類發展AI的目标和路徑等問題。為此,在今年7月于長沙舉行的2024ACM中國圖靈大會上,我作了一個演講,題為“對目前人工智能熱潮的幾點冷思考”。本文根據該演講整理而成。
AI發展的簡短回顧
人類對“用機器模拟人類智能”的追求遠早于現代電子計算機的發明。如果将算術計算的能力也視為智能(實際上,在教育還不那麼普及的時代,算數能力确是智者的能力),那麼曆史上的各類計算裝置,例如帕斯卡的加法器、萊布尼茨的機械電腦和巴貝奇的差分機,無疑都是對用機器模拟算數能力這一目标的追求。就其第一目标而言,圖靈機模型以及第一台電子計算機ENIAC均是針對“計算”這類智能的,不過,随着電子計算機在計算能力上超越人類,人們開始不把計算等同于智能了。1950年,艾倫·圖靈(Alan Turing)在其論文的開篇首句即提出:“機器能思考嗎?”該問題後來演變為“機器能表現得像人一樣嗎?”。此即是圖靈測試提出的問題基礎,也成為後續幾十年AI研究追求的重大目标,甚至是終極目标。
對機器智能的擔憂幾乎伴随了追求模拟人類智能的全過程。1942年,科幻作家艾薩克·阿西莫夫(Isaac Asimov)就在其小說《環舞》(Runaround)中就提出了機器人三定律1,其目的就是為了警示機器智能可能給人類帶來的威脅。
1956年,“人工智能”一詞被提出,在經曆兩個“春天”和兩個“冬天”後,AI迎來了第三個“春天”。而這個“春天”顯得尤為生機勃勃,呈現一片“繁榮”景象。從2012年底,在ImageNet圖像分類任務上,AlexNet展現出了深度學習的強大感覺能力,2015年初,ResNet超過人類的平均水準;到2016年初,AlphaGo以絕對優勢戰勝李世石;再到2022年底,OpenAI2推出新的智能聊天大語言模型ChatGPT3,因其表現優異,被人們稱為“現象級”的AI應用。這些事件均代表了AI的一次次重要突破,堪稱AI發展史上的重要裡程碑。
貫穿AI的發展,有一個始終被讨論的問題:“什麼是AI,如何了解AI?”時至今日,仍未達成普遍共識。通常人們談的智能,多指人腦的智能,從基本的計算、記憶能力,到感覺能力,再到高層次的認知能力,進而到發現、創造能力,最終歸為人的智慧。還有一類是從人的動作能力考察的智能,被稱為行為智能。到目前,AI在不少任務上的感覺能力可以說已經超越人類,但是,認知和行為能力與人類相比還差距甚大。目前炙熱的大語言模型能力常常被關聯到認知智能,但從人類視角看,大語言模型有認知能力嗎?我認為,還沒有。
“智能”這一概念本就是人類用以差別自身和動物的專屬詞,并刻意創造了“人工智能”一詞指代機器模拟的“智能”。“智能化”是目前的熱詞,本意是指由AI驅動或賦能,即AI-powered 或AI化,通過AI技術提升人類或機器完成各類任務的能力,但人們為了文字的簡潔,省略了“人工”這個詞。随着時間的推移,随着“智能化”一詞被用于各種事物(everything),很多人忘了現在的“智能化”本質上是“人工智能化”,進而導緻很多人忽視了“人”才是地球上真正的智能體,冀圖用AI去“智能化”人類。一個例子是所謂“智能設計”這個提法,很多設計均屬于人類的智力性創造性活動,用計算機輔助設計無疑會大大提升效率,用AI甚至可以自動完成不少設計任務,但無論如何,我們不應将機器完成或輔助完成的設計視為“智能”的産物,它隻是“AI設計”的産物。本質上,人的設計才是“智能”的,AI是人類創造出來的工具,不能反“仆”為“主”。
目前主流的AI工作機制,與人類大腦的工作方式仍相去甚遠。如果我們過度使用類人的術語描述機器,比如“意識”“心智”,甚至“矽基生命”等,很容易給公衆造成誤導。我個人特别不喜歡“矽基生命”之類的提法,說重一點,這是對生命的不尊重。我們不要忘記,真正的生命是地球上的生物,包括動物和植物,而人類是其中的主導者。
現階段AI的成功源于深度學習,這隻是AI研究的一個子領域,其本質是資料驅動的智能、計算實作的智能,即“資料為體、智能為用”,猶如燃料與火焰的關系,燃料越多,火焰越大,燃料越純,火焰越漂亮。對目前基于深度學習的AI所取得的突破性進展,我是高度認可的。大語言模型給我帶來的最大震撼在于:它可以講“人話”了,而且文法能力超越了人類平均水準,甚至超越人類的中上水準。我看大語言模型,樂觀的判斷,也許會成為繼計算機、網際網路之後,計算科學發展史上的第三大裡程碑。
同時,我們需要清醒地認識到:目前以“算法、資料、算力”為核心要素的AI技術路徑,其持續發展潛力面臨重大障礙,原理尚未出現變革性苗頭,對資料的依賴越來越嚴重,對算力的消耗也越來越巨大。理想的AI應當是低熵的,不以計算資源的消耗換取智能,也不以複雜性的提高換取智能;也應當是高安全的,模型的輸出符合真實情況,生成結果確定對人類無害;還應當是不斷進化的,具有環境自适應和終生“學習”能力,能不斷完善并具有“遺忘”能力。離實作這樣的目标,我們還有很長的路要走。
熱潮中的冷思考
AI應用的繁榮期正在開啟?
目前,人們對“AI+”或“AI for everything”抱有很高的期望,然而,現實情況卻不盡如人意——雷聲隆隆,雨點并不大。我認為,AI的應用還需要經曆一段時期的探索、磨合和積累,才可能迎來繁榮。
所謂探索,是指搞清楚行業的真需求。日常聊天或者生成文本報告、視訊,這通常隻是行業需求的一小部分,行業需要真正落地的應用是解決生産問題、業務問題的有效方案。目前,大陸很多行業的數字化轉型尚未完成,甚至許多裝置還未實作數字化,更未聯網,沒有數字化和網絡化,當然也就不可能有智能化。
所謂磨合,是指提升可信性。目前基于深度學習的AI存在不可解釋性,被視為“黑盒”,缺乏可信性。是以,在現有的技術路徑下,至少在安全攸關的領域,AI的應用會受到限制。
所謂積累,是指擷取跨足夠時間和空間尺度的全資料。大語言模型的成功依賴于人類長時間積累的龐大語料庫,文生視訊的成功也依賴于網際網路上存在的海量視訊。然而,其他行業的資料積累尚未達到這個量級。即使近幾年進行了較大範圍的資料收集,但從時間縱深角度來看,資料的積累仍遠遠不足。沒有時間上的積累,資料的價值将大打折扣。
在我看來,目前AI存在的問題是:泡沫太大,仍處于技術成熟度曲線(hype cycle)的高峰階段,喧嚣埋沒理性,需要一個冷靜期;以偏概全,對成功個案不顧前提地放大、泛化,過度承諾;期望過高,使用者神化AI的預期效果,提出難以實作的需求。
面對AI技術發展及其應用的現狀,如果對AI的落地應用有所彷徨,那麼,還能夠做些什麼呢?我的建議是:積累資料——可采盡采、能存盡存。
大模型浪潮下,學術界能幹什麼?該幹什麼?
ChatGPT和Sora的問世,開啟了世界範圍的“百模”競發。不過,在基本原理相似的技術路徑上,人們發現,各方擁有的算力資源相差不多,資料規模和品質就成為競争的關鍵因素。本質上,目前大模型的競争已成為“資料工程”的競争。學術界在這場競争中面臨雙重挑戰:首先,學術界缺乏足夠的算力資源和資料資源進行大規模的模型訓練;其次,即使擁有這些資源,“資料工程”的定位也與學術界探索基本原理的使命不符。一些圍繞大模型應用的研究是否值得學術界投入,還存在諸多争議,例如,基于提示工程的大模型應用是否會成為新的學術研究領域?抑或隻是技術教育訓練領域的話題?對于這個問題,我更傾向于是後者。
從基本原理來看,目前的大模型沒有跳出機率統計這個架構。現實世界中的任務(如圖像分類或文本生成)可以被模組化為機率模型,将資料的分布或生成過程表示為機率分布函數。而Universal Approximation Theorem在理論上闡明了神經網絡能夠以任意精度逼近這些機率分布函數,進而建構這些機率模型。就這個意義而言,大模型可被視為是由已有語料壓縮而成的知識庫,生成結果的語義正确性高度依賴于資料的空間廣度、時間深度以及分布密度,更高度依賴于資料的品質。可以确定的是,作為一個高度複雜的系統,大模型是一個合适的研究對象,包括了解其内在機理,以及如何提升其訓練和推斷效率等。但是,作為一個人造系統,我們更應關心其建構過程的可重複性和可追溯性,進而保證結果的可解釋和可信任。此外,研究大模型的應用技術無疑是一個重要領域,但就大模型技術的現狀而言,基礎不可信必然會導緻應用技術不可信。這也意味着目前的大模型應用技術研究的實際價值具有與生俱來的不确定性。
目前對大語言模型的發展存在諸多争議,有技術路徑之争、應用和商業模式之争,還有開源、閉源之争。在這裡,我也大膽預測大語言模型的未來(至少是表達個人的一種期望):作為壓縮了人類已有的可公開通路的絕大多數知識的基礎模型,大語言模型在未來需要像網際網路一樣,走向開源,由全世界共同維護一個開放共享的基礎模型,盡力保證其與人類知識的同步。否則,任何一個機構所掌控的基礎模型都難以讓其他機構使用者放心地上傳應用資料,也就很難産生足以滿足各行各業業務需求的大量應用。既然基礎模型的訓練語料本就是人類幾千年來共同積累的知識财富,理應走向開源,讓全世界共同受益,共同維護,避免無謂的浪費。在這個開放共享的基礎模型上,全球範圍内的研究者和開發者可以面向各行各業的需求探讨各種應用,建構相應的領域模型。以誕生于美國軍方的網際網路為對照,如果它僅僅停留在美國軍方使用,沒有走向民用,沒有完全交給一個民間機構,網際網路則難有今天的繁榮。
人工智能生成内容(AIGC),如何權衡利弊?
大模型在内容生成的模态和範圍等方面實作了前所未有的突破,就文本生成能力而言,相比過去的AI系統,大語言模型具有内容生成速度快、涉及知識面寬的特征,短時間内就能生成具有高品質文法的文本。本質上,大語言模型呈現了以人類現有文本資料為基礎的資料智能,将對傳統的資訊知識擷取和學習方式帶來重大影響,其生成内容能夠覆寫大部分人類知識領域,将在社會經濟生活的衆多場景具有廣闊的應用前景。然而,目前大模型的技術路線使人類知識體系面臨嚴峻挑戰,黑盒導緻的不可解釋性是其最大“罩門”;訓練語料的品質缺陷、機率統計的内生誤差等因素會導緻大模型産生幻覺,生成錯誤内容;再加上人為幹預誘導,極易生成虛假内容。
人類社會曆經漫長發展曆史,建構起知識“發現-驗證-傳播”的一套規範的知識體系和制度。人類知識主要依靠各領域科學家、專家學者的創新發現獲得,并以語言文字的形式記錄并呈現,通過各類有效的制度,包括學術界、出版界的共同把關,保障知識的準确性和可信度,并經過長期的實踐檢驗,逐漸形成人類知識體系。但是,依賴目前技術途徑的大模型技術如果被廣泛應用,将會打破人類主導的知識發現、驗證和傳播秩序。在大模型生成内容文法正确的表象下,許多錯誤虛假内容與真正的知識混雜在一起,讓人更加難以辨識而采信。相較于網際網路自媒體釋出的資訊,大模型生成内容在叙述結構、文法、邏輯等方面都更為完備,人們依靠基本的邏輯思維和知識基礎很難判斷其真假。更嚴重的是,由于生成速度極快,涉及的知識面廣、數量龐大,大模型生成内容不可能全部都得到人類專家的鑒别和驗證。這些不辨真假的内容如果被人們采信,日積月累,将會污染人類經過長期曆史積澱和演化而形成的知識體系。
關于認知智能,不該做什麼?
認知能力是人類成為地球主人的根本。相比其他生物,人類既不是體力最強的,也不是跑得最快的,更不是感覺能力最強的……但是,由于人類具備基于歸納和演繹的獨特認知能力,加上對語言工具的使用,可以互相交流、彙聚群智,使得人類能夠成為地球的主宰。就這個意義而言,人類差別于地球上其他動物的主要特征就在于認知能力。
就個人的認知,我可以接受機器在感覺智能方面超越人類,畢竟自然界中感覺能力超過人類的例子比比皆是,如狗的嗅覺和鷹的視覺。我們可以借助機器的感覺能力增強對外界環境的了解與把握。但對機器認知智能的研發,我持比較保守的态度。
我支援生命科學界去探索大腦的奧秘,探究認知的成因和機理,這被視為生命科學的皇冠。不過,在追求大腦奧秘的同時,我們也需要思考如何保持人類的主體地位,維護人的基本尊嚴和“神經”權。我認為,在技術領域,我們需要嚴格限制以替代人的認知能力為目标的技術研發,尤其要嚴格規範植入式腦機接口類的技術研發。我這樣說,并不是我認為現有的機器認知智能研究已經步入有可能替代人類的路徑上,相反,我認為目前的AI還遠不具備認知能力,而且目前以深度學習為基礎的AI技術路徑也難以實作類人的認知智能。我隻是從人類的主體地位的視角,認為開發一種可以替代人類自身認知能力的AI,是對人的權利的一種侵犯。我們需要確定AI的發展不會超出人類的控制,進而維護人類的主導地位和尊嚴。
AI for Science(AI4S)的邊界在哪裡?
AI4S很火,因為已經出現了諸多成功的甚至是具有突破性意義的案例,例如,DeepMind4 開發的用于預測蛋白質三維結構的AlphaFold,基于擴散模型預測分子三維結構的GeoDiff,以及模拟燃燒反應和流體過程的DeepFlame。在這些成功故事的影響下,不少研究者将打造AI科學家或共同科學家(co-scientist)作為追求的目标。在我看來,已有的AI4S的成功案例證明了AI用于科學研究的巨大潛力,然而,我們不能忘記,科學家是人類的角色,科研是人類的專屬責任,人類可以利用助手和工具輔助科研,但是不能允許這些助手和工具越俎代庖掌控科研。AI可以成為科學家的有力助手,但不能是AI科學家或共同科學家。即使我們可以研發出大幅度提升科研效率的工具助手,但如果無法完全掌控它們,我認為我們甯願放緩科技發展的步伐。
要了解這一點,我們需要回顧科學研究的源起和發展。科學發展的第一驅動力是好奇心,即人們希望去了解其所生存的世界。古希臘的先哲們創造了燦爛的文明,也在科學領域進行了積極的探索。現代意義上的科學則源于17世紀的科學革命,而這場革命卻是經曆了兩個世紀的準備,才開啟了人類社會的新時代。15世紀是文藝複興,人們剛從黑暗的中世紀走出來,緣于古希臘文化的價值和美麗,對古希臘經典崇尚備至,認為“古典的東西是無與倫比的”。16世紀的宗教改革是思想的第一次解放,強調“基督教并不是羅馬人的”,具有普世性。17世紀的科學革命則是緣于一系列的科學發現挑戰了古希臘時代形成的“科學”觀念,人們發現“希臘人錯了”,進而催生了新的科學方法和理論。18世紀的啟蒙運動則進一步強化了“宗教是迷信”的觀念,人們認識到,需用理性取代迷信,隻要理性跟随科學,未來就有進步。這也是人類曆史上首次出現“進步”一詞。
科學革命以後,人類社會進入了快速的不斷進步的階段,通過科學研究認識世界,豐富了人類知識,進而基于科學發明技術改造人類生存的世界。後續的工業革命開啟了人類文明新形态,極大地豐富了物質文明,人類擺脫了靠天吃飯的宿命,出現了“經濟增長”的概念。據《世界經濟千年史》所述,公元第一個千年,西歐以及全球其他地區的經濟幾乎沒有增長,是西歐率先打破了這種千年停滞的狀态。14世紀西歐的人均GDP超過中國,1820年後世界經濟開始出現陡坡式的拉升,從1820年到1999年,西歐人均GDP年均複合增長率達到1.51%,世界個人所得增長了8.5倍左右,世界人口增長了5.6倍左右。西歐人口增長和經濟增長幾乎同步,在第一個千年裡,整個西歐的人口增長隻有幾十萬,1820年後人口快速增加,到 1998年人口年均複合增長率達到0.6%。這些成就無疑都要歸功于科學革命和工業革命,即科技的發展。當然,人類在通過科技改變世界的過程中,也造成了一系列負面影響,諸如環境污染、隐私侵犯,乃至毀滅性武器的出現,等等。
我們需要了解并準确把握科學研究的本質。科研是什麼?科研的結果并非一定正确,知識也并非絕對無誤,但人類通過不斷的探索和驗證,去僞存真,人類的知識寶庫也一直不斷地擴大、完善。在這個曆史程序中,無論如何,人類始終掌握着主導權。技術進步雖然極大地提高了科研的效率和品質,但其作為工具的角色始終沒有改變。然而,這一輪的AI浪潮,正在給人類的科學研究,進而給人類的知識積累帶來嚴峻挑戰。大語言模型對人類知識的“掌握”超越了任何個體和任何學科群體;目前技術路徑的生成式AI的廣泛應用,将有可能污染人類現存的知識體系;高效率的大規模“成果”産出,也給其驗證帶來了巨大挑戰,人類的知識入庫稽核權如何保證?如何擺脫因過分依賴AI而對科研人員的能力培養和提升造成的負面影響?
不忘初心,我們需要回歸科學研究的本因,即通過不斷的科學發現了解我們生存的世界,進而通過技術發明不斷改善我們的生活。作為地球的主人,我們不能把認知權力讓渡給任何工具。我們需要的不是知識積累的速度,而是品質。我們應該,也可以把控知識發現的節奏。同時,我們需要加強科研後備軍的基本素養和技能的培養,我們須恪守科技倫理,堅持以人為本、科技向善。
AI的第三個“春天”能持續多久?會走向新的“冬天”嗎?
我回答不了這個問題。但是,至少我不希望在目前的技術路徑上持續這個“春天”。一方面,不可解釋性不符合人類發現知識、發明技術的基本邏輯,希望“知其然并知其是以然”是人的天性,更應該是科學家遵循的基本原則。另一方面,以Scaling Law為“信仰”的大模型訓練,以過度的資源消耗為代價,難以永續,必有盡頭。我們知道,Universal Approximation Theorem隻是證明了能夠建構機率模型的神經網絡的存在,并未給出如何構造該網絡的具體方法,也未說明需要多少神經元或層數才能達到所需的逼近精度。而Scaling Law為我們提供了一個“經驗參考”,即一個通過觀察實驗結果而得到的“統計意義上的規律”,說明了“可能”用包含多少參數的模型、多少訓練資料、多少算力,可以獲得怎樣的模型表現,換言之,提供了一個解釋“通過擴大模型參數或資料和計算資源提升模型逼近能力”的參考規律。于是乎,不少人将之奉為圭臬,走上了“拼”資料和計算資源的“蠻力”訓練路徑。
此外,雖然基于目前的技術路徑,大模型尚不能“無中生有”,做出超越人類預期的事情,但一味信奉“蠻力”、追求規模,也極易發展出在覆寫面和複雜度上人們難以掌控的“巨獸”。
科學家在探索自然的過程中,一直在追求為世界模組化,遵循的基本準則是簡而美。大陸古代智者曾說:“妙言至徑,大道至簡”,愛因斯坦也有一句名言:“結果應該至簡,而不僅僅是相對簡化(Everything should be made as simple as possible, but not simpler)。”我們在很多領域的科學研究中都在追尋第一性原理(First Principles),這些無不是在闡釋相同的道理。然而,按照Scaling Law産出的結果,并不符合這個原則,而且,僅利用大模型通過“黑盒”的方式直接獲得結果,而不去探索其背後的原理和規律,不是也不應該是科研錨定的目标。
我想,我們都不希望AI的“冬天”再一次到來,但是,沿襲目前技術路徑,AI的能力“天花闆”似已隐隐可見。
AI是一個獨立學科嗎?
這無疑是一個得罪人的問題,似乎也不太符合目前的一些“主流”傾向。不過,就學科本身展開讨論,我認為是有必要的。這個問題實際上可展開為若幹個子問題:如果沒有現代計算機,會有AI這個詞的出現嗎?目前主流的AI,能離開計算機嗎?不懂計算機運作的基本原理,能做好AI的科研和應用嗎?如果AI作為一個學科,它的知識體系是什麼?與計算機學科的差別又是什麼?就我個人而言,自然不認同AI是一個獨立學科的說法。我也了解,我們要推動相關産業的發展,迫切需要大量相關的人才。然而,人才培養未必一定要和學科設立挂鈎,學科的形成和發展有其自身内在規律。對IT領域而言,其本質都是基于計算,我們真的需要那麼多的細分專業和學科嗎?
2020年8月,我曾在一個IT類學院院長的會議上作過一個題為“亟須建構合理的符合規律的IT人才培養體系”的報告。在報告中,我回顧了這些年我們曾短缺的人才:軟體人才、物聯網人才、網絡安全人才、大資料人才、人工智能人才、內建電路人才、區塊鍊人才等,“短缺”的人才,無一不是和當時IT領域的熱點話題緊密關聯,而解決的方法,基本都是在高校設立相關的專業甚至學院,于是出現了軟體學院、物聯網學院、網絡安全學院、內建電路學院、人工智能學院等,進而再建立一級學科,如軟體工程、網絡空間安全,同一戲碼,反複上演。人才短缺是事實,但具體缺什麼,可能還需要更深入的思考。我在報告中表達的觀點是:在科研領域,我們不缺人才數量,缺的是人才品質;而在應用領域,缺的是大量能直接上手的應用型人才。研究型大學的定位是知識創新的主體,培養的是面向未來的人才,而不是直接在市場上可使用的技能型人才;而應用型大學的定位就是面向市場需求,培養企業直接可用的人才。解決産業人才短缺問題,主力應該是應用型大學。在研究型大學内通過設立專業、學院,甚至學科應對産業人才短缺問題,在一定程度上會對大學的專業學科體系帶來負面影響。
合理的、符合規律的IT人才培養體系需要長遠的系統規劃,避免跟着熱點走,頭痛醫頭腳痛醫腳;避免“歸一化”的人才需求,創新型人才和應用型人才都重要,應保持平衡,不能偏廢任一方;避免行政力量影響、幹預大學的學科設定,特别是研究型大學的學科設定;大學應該保持定力,在發揮自身優勢特色的前提下進行戰略布局,不宜為了一時的熱點和資源而調整專業學科設定,特别要避免那些有損于内部一緻性的調整;企業的要求不宜太急切,不應指望研究型大學培養的人才能夠立即為其所用,參與大學教育也不應太功利,不能指望公司的平台産品能直接用于學生實訓。我們需要深刻了解,對研究型大學而言,大學的通識教育是大趨勢,是人才未來能夠持續成長、行穩緻遠的基礎。目前急需的人才很重要,未來需要的人才更重要,而能夠創造未來的人才更加重要。
總結
以上不成體系的陳述,可能源于我較為保守的思想,也可以視為一個思想保守者的杞人憂天,而且主觀立場偏強。實際上,我也有過心路曆程的轉變。我也曾經是科學探索無禁區、技術研發無疆界、技術應用須謹慎的支援者,我也一直認可技術本身就是一把雙刃劍。現在我談論這些問題的主要憂慮在于,目前的技術發展已經可能會侵襲到人類的認知領域,進而可能會威脅到人類的主體地位,故而萌生“恐懼”之心。
當然,這些思考未必正确,所憂慮的風險也未必會發生。但是,從科技倫理的視角,我們需要對可能的風險進行研判,并提醒科技工作者時刻牢記科技向善、以人為本。其中,一些關于科研工作和計算機學科未來發展的觀點,帶有較強的“疆域”意識,但作為一個計算機學科的科技工作者,并且曾經擔任過中國計算機學會的理事長,發出這樣的聲音,也算是“守土有責”。
實際上,今天的AI熱潮,包括對AI發展狀态和速度的過度高估,以及對AI發展可能給人類帶來巨大負面影響的種種擔憂,在曆史上也曾經出現過。有興趣的讀者可以去看看計算機、AI發展早期的主流媒體報道。電子計算機出現之後,此類報道就未曾停止,隻不過早期報道的主角是計算機。當初媒體對計算機的報道也是兩個方面,盲目、過度的高估和脫離實際的擔憂。這些報道放到今天,主角換成AI,似乎仍然可以适用。隻不過,紙質媒體的傳播影響畢竟有限,遠不及今天網際網路、自媒體的喧嚣。
前事不忘,後事之師。馬克·吐溫曾說過:“曆史不會重複,但會押韻。”在AI技術如火如荼的今天,我提出這幾點冷思考,也是希望曆史不要重演,即使重複無法避免,也希望是螺旋式的上升。
注:
1 第一定律是機器人不得傷害人類,或因不作為而讓人類受到傷害;第二定律是機器人必須服從人類的指令,除非這些指令違背了第一定律;第三定律是在不違背第一與第二定律的前提下,機器人必須保護自己。
2 https://openai.com/
3 https://openai.com/chatgpt/
4 https://deepmind.google/
梅宏
CCF會士、前理事長。中國科學院院士。北京大學教授。主要研究方向為系統軟體、軟體工程。[email protected]