天天看點

ChatGPT等生成式人工智能:過去、現在和未來的思考

作者:程浩How

生成式人工智能(ChatGPT等工具)如今引發了全球人工智能的熱潮。但我們如何應對這種生成式人工智能所帶來的多重挑戰呢?

最近,在複旦大學建校118周年相輝校慶系列學術活動中,複旦大學國家智能評價與治理實驗基地副主任、大資料研究院教授趙星與浙江大學公共管理學院研究員蔣卓人合作,帶來了一場關于生成式人工智能過去、現在和未來的思考盛宴。

ChatGPT等生成式人工智能:過去、現在和未來的思考

生成式人工智能的過去和現在

蔣卓人強調:“生成式人工智能并非一蹴而就,它有着悠久的曆史淵源。”在生成式人工智能發展的90多年曆程中,人類智慧一直在閃耀。

1932年,法國工程師Georges Artsrouni創造了一台名為“機器大腦”的裝置。它通過查詢多功能詞典完成翻譯,輸入和輸出都是一條紙帶。盡管與今天的機器翻譯不同,但它符合人們對生成式人工智能的定義,即人類輸入一段内容,機器生成一段新的内容。

之後,美國麻省理工學院的兩位教授建立了最早的生成式人工智能之一,并引入了貝葉斯網絡因果分析概念,展示了如何利用卷積神經網絡來識别圖像。

2006年,華裔計算機科學家李飛飛着手建構了名為ImageNet的資料庫。該資料庫包含超過1400萬張手工标注的圖檔,涵蓋2萬多個類别。“正是有了這樣一個龐大的資料庫,深度學習才得以崛起。”蔣卓人表示。

ChatGPT等生成式人工智能:過去、現在和未來的思考

ChatGPT為何成為明星産品?

ChatGPT擁有1750億個參數和3000億個訓練單詞,這是它的資料量。自2022年釋出以來,僅僅兩個月時間,ChatGPT就吸引了超過1億使用者,成為有史以來增長最快的應用。

蔣卓人認為,要了解ChatGPT,就要了解它的關鍵技術:大模型基礎訓練、指令微調和人類回報強化學習。

“大模型指的是大型語言模型。”蔣卓人解釋道,“它是一種機率模型,可以告訴你一個詞出現的機率。一個優秀的語言模型能夠準确預測下一個詞是什麼。”

在具備良好的語言了解能力基礎上,為了讓ChatGPT能夠與人類進行對話,研究者提出了指令微調,通過引入思維鍊和代碼生成來提升大模型的推理能力。

“這種能力對于大模型來說至關重要,使得它能夠在開放領域表現出色。”蔣卓人說道。

通過這些技術,大模型基本具備了回答指令的能力,但回答的品質不一。為了讓大模型持續輸出高品質的回答,研究者設計了一套基于人類回報的強化學習方法,通過微調大模型、訓練獎勵函數和進行大規模強化學習的優化,確定生成高品質的回答。

“開放式人工智能就是使用這種方法,大幅降低了資料集建構的成本。”蔣卓人表示。

ChatGPT等生成式人工智能:過去、現在和未來的思考

新智能帶來新挑戰

面對生成式人工智能帶來的挑戰,趙星從資源、技術、應用和社會倫理四個次元進行了解讀。

從資源的角度來看,生成式人工智能需要高品質的資料,而中文資料的品質較英文資料差。趙星認為,即使具備強大的翻譯能力,類似ChatGPT的中文工具在處理效果上也明顯不如英文,其中一個核心原因是中文資料的品質較差。

“科技界曾将人工智能的應用比作煉金術。”趙星開玩笑說道,“人們把資料一股腦地投入模型中,卻沒有明确的預期,不知道能否煉出有價值的東西。”

顯然,在技術層面上,生成式人工智能存在内在的不确定性。

“當我們準備向全社會推廣一種通用工具時,卻不明确它的科學原理,就會面臨内在的風險。人工智能最核心的風險在于其結果的不可承受性。我們在治理問題上很少有如此無力的狀态。”趙星表示。

在應用層面上,生成式人工智能的産業發展具有确定性,而風險治理卻存在不确定性。在社會倫理方面,生成式人工智能不僅存在知識産權糾紛和資訊洩露的風險,還可能塑造真正的資訊封閉空間。

“當生成式人工智能24小時陪伴在你身邊時,會潛移默化地讓你認為一切都是自己決定的。”趙星警示道,“我們面臨的是一個會迅速崛起的事物,可能帶來嚴重後果且後果未知。”

ChatGPT等生成式人工智能:過去、現在和未來的思考

内在安全治理:讓危機“已知”

趙星認為,面對這個新對手生成式人工智能,不能采用傳統治理“被動回應外部威脅”的方式。他的團隊正在緻力于建構生成式人工智能治理的新模型,借鑒了複旦大學大資料研究院院長邬江興院士提出的“内在安全理論”。

“我們是否能在未知的風險爆發之前找到對抗它的方法?這是生成式人工智能内在安全治理所要解決的問題。”趙星說道,“我們需要在人工智能風險到來之前,為人類社會提供新的技能樹,以應對人工智能帶來的非傳統安全問題。”

内在安全治理模型的原理是基于群體智能将個體的“未知未知”轉化為群體的“已知未知”,進而進一步轉化為“已知已知”。

“當我們知道可能的風險是什麼,以及它們産生的地方,生成式人工智能的治理就有機會轉化為正常的安全問題,我們就可以嘗試實作治理的閉環。”趙星表示,“然而,這仍需要長期的理論和實踐探索。”

趙星的團隊還探索了生成式人工智能在科學評價中的應用,創新地建構了“數智人”評價與治理新範式,其中包括客觀資料、智能算法和專家評議的和諧共生。目前,團隊正在進行利用類似ChatGPT工具建構智能評價系統的探索實驗。

ChatGPT等生成式人工智能:過去、現在和未來的思考

“初步結果顯示,盡管目前階段生成式人工智能還無法勝任嚴肅的學術評價工作,但它展現出了跨學科評價能力和湧現性推斷預測潛力,這值得高度關注。”趙星表示。

繼續閱讀